“Dünya Halleri’nden Semih Sönmez’in haberine göre; Yapay zekanın yaratacağı sorunlar hakkında görüşü sorulan uzmanlar teknolojinin tek başına sorun olmadığını, kötü insanların sorun yarattığını söylüyor.
Yapay zeka her geçen gün daha fazla alanda kullanılmaya başlıyor. Bu teknoloji birçok kişinin işini kolaylaştırabileceği gibi bazılarının da işini robotlara kaptırmasına sebep olabilir. İyi ya da kötü, geleceği şekillendirecek en önemli teknolojilerden birisi olarak görülen yapay zeka konusunda herkesin faklı bir fikri var. Futurism konuyu uzmanlarına danışmaya karar verdi. Beş farklı yapay zeka uzmanına fikirlerini soran Futurism, bu teknolojiden ne kadar korkmamız gerektiği ya da olumsuz etkilenmemek için neler yapmamız gerektiği ile ilgili önemli görüşler topladı.
Uzmanlara sorulan soru şuydu:
“Yapay zeka ile yapabileceklerimizi ve yapamayacaklarımızı düşündüğünüzde sizi en çok rahatsız eden konu nedir?”
Central Florida Üniversitesi Profesörü Kenneth Stanley:
En önemli endişe, yapay zekanın insanlara zarar vermek için kullanılması. Yapay zekanın bu şekilde kullanılabileceği birçok alan var. Bu konuda yapılacak tartışmalar sadece bilimsel değil. Tüm toplumun bu konuda görüş bildirmesi gerekiyor. Teknoloji daima iyi yada kötü olarak kullanılabilir. İnsanlık teknolojinin kötüye kullanımını engellemek için hep çaba sarf etti. Tam olarak ne yapılabilir bilmiyorum ama sorumluluk almalı ve zaman içinde neler yapılması gerektiğini kestirmeye çalışmalıyız.
Birleşmiş Milletler UNICRI Yapay Zeka ve Robotik Merkezi Başkanı Irakli Beridze:
Bence yapay zekanın en korkutucu yönü büyüme hızı. Bu hıza ayak uydurma konusunda başarısız olursa sıkıntı yaşayabiliriz. Teröristlerin bu teknolojiyi kötü amaçlarla kullanması hatta robotlar ve dronlarla birlikte insanlara zarar vermek için yapay zeka geliştirmesi önemli bir endişe sebebi. Ayrıca ölümcül otonom robotlar geliştirme konusunun da sıkıca takip edilmesi ve düzenleme altında tutulması gerekiyor.İş kaybı ve işsiz kalan insanlara alternatif oluşturamamak da önemli bir sorun haline gelebilir.
Bence yapay zeka bir silah değil, bir araç. Bu araç iyi ya da kötü hedefler için kullanılabilir. Bizim amacımız iyi hedefler için kullanılmasını sağlamak. Muhtemel tehlikeleri anlayıp bunları en aza indirmek için çalışmalar yürütmeliyiz.
Microsoft Araştırma Müdürü John Langford
Ben dronlara dikkat etmemiz gerektiğini düşünüyorum. Otonom ve silahlı robotlar çok büyük bir tehlike haline gelebilir. Robotlar şimdiden silahlı saldırılar için kullanılmaya başladı ancak şimdilik insanlar tarafından kontrol ediliyorlar. Kendi kendine öğrenme yeteneğine sahip bir dron çok daha tehlikeli bir araç haline gelebilir.
DARPA Mikrosistemler teknolojisi Ofis Programları Müdürü Hava Siegelmann
Her teknoloji iyi ya da kötü şekilde kullanılabilir. Bence bu, kullanan kişinin kararlarına bağlı. Ben kötü bir teknolojinin var olduğunu düşünmüyorum. Ama kötü insanlar olacaktır. Konu bu teknolojiye kimin eriştiği ve nasıl kullandığı.
Facebook AI Araştırmacısı Tomas Mikolov
Bir alanda çok yatırım ve ilgi varsa bunu kötüye kullanan insanlar da oluyor. Ben yapay zekanın mevcut yeteneklerini çok abartan kişileri ve girişimleri bir tehlike olarak görüyorum. Bir girişim sıradan bir özelliği alıp aylarca onu geliştiriyor ve üzerinde çalışıyor. Daha sonra kimsenin yapamadığı bir şeyi yaptıkları iddiasıyla ortaya çıkıyorlar. Halbuki o özelliğin o kadar geliştirilmesi kimseye bir fayda sağlamıyor ve büyük ihtimalle onlardan başka kimse o alanda bu kadar çok vakit harcamadı. Yapay zekayı basit problem çözme yeteneklerinden ziyade, daha büyük problemleri çözmek için geliştirmeliyiz.
Kaynak: Futurism
WinAlly ilgili görüş yazısı:
Biyoetik perspektiften “Yapay Zeka ve Robot Etik Sorunları”
“Sağlık mesleklerini salt algoritmik ve teknik birer yapı olarak ele almak tıbbı eksik algılamak demektir”
TÜRKİYE BİYOETİK DERNEĞİ Yönetim Kurulu Başkanı Prof. Dr. Neyyire Yasemin YALIM, Uzm. Emine TOPÇU ve Öğretim Görevlisi Gülay HALİDİ
“Francis Kamm’ın ahlaki statü tanımı “bir varlığın ahlaki statü sahibi olmasının anlamı, onun kendine özgü bir ahlaki değeri bulunduğu için onun iyiliğinin gözetilmesi, ona yapılacaklara izin verilmesi ya da verilmemesidir [“X has moral status = because X counts morally in its own right, it is permissible/impermissible to do things to it for its own sake. (Kamm 2007: chapter 7; paraphrase)”]” şeklindedir.
Buradan yola çıkarak önemli bir sorular silsilesi daha karşımıza çıkıyor;
yapay zekânın doğrularını belirleme kriteri ne olacaktır,
ahlaki kodlar yapay zekâya nasıl verilecektir,
ahlaki dilin gelişmesi için nasıl tasarlanacak ve nasıl gerçekleştirilecektir?”