Google'ın DeepMind Yapay Zeka birimindeki baş araştırmacıya göre, insan düzeyinde yapay zeka yaratmaya nihayet yaklaşılıyor.
Dr. Nando de Freitas, DeepMind'ın blokları istiflemekten şiir yazmaya kadar çok çeşitli karmaşık görevleri tamamlayabilen bir yapay zeka sistemini ortaya çıkarmasının ardından yapay genel zekayı (YGZ) gerçekleştirmeye yönelik on yıllardır süren arayışta "oyunun bittiğini" söyledi.
Dr. de Freitas, DeepMind'ın "kültürlü bir araç" diye tanımlanan yeni Gato AI'ının, insan zekasına rakip olabilecek bir yapay zeka oluşturmak için yalnızca ölçeklendirilmesi gerektiğini söyledi.
DeepMind'ın araştırma direktörü, The Next Web'de yayımlanan ve "insanların YGZ'ye asla ulaşamayacağını" iddia eden bir görüş yazısına cevaben kendi görüşünü dile getirdi ve böyle bir sonucun kaçınılmaz olduğunu savundu.
Dr. de Freitas, Twitter'da "Artık her şey ölçeklendirmeye kaldı! Oyun bitti!" diye yazdı.
Her şey, bu modelleri daha büyük, daha güvenli, hesaplama açısından daha verimli, örneklemede daha hızlı, bellek açısından daha akıllı, modalite açısından daha çeşitli, yenilikçi verilere sahip, çevrimiçi/çevrimdışı hale getirmekle ilgili... YGZ'yi sağlayacak olan, bu sorunları çözmektir.
Makine öğrenmesi araştırmacısı Alex Dimikas, Gato AI'ın gerçek bir Turing testini (bir insanın bir makineyi başka bir insandan ayırt edememesini gerektiren bir bilgisayar zekası ölçüsü) geçmekten ne kadar uzak olduğuna inandığını sorduğunda Dr. de Freitas, şöyle yanıtladı:
Hâlâ uzak.
Önde gelen yapay zeka araştırmacıları, YGZ'nin ortaya çıkmasının insanlık için varoluşsal bir felaketle sonuçlanabileceğine dair uyarıyor. Örneğin, Oxford Üniversitesi'nden Profesör Nick Bostrom, biyolojik zekayı aşan "süper zeki" bir sistemin dünyadaki baskın yaşam formu olarak insanların yerini alabileceği tahmininde bulunuyor.
Kendi kendine öğretebilen ve insanlardan katlanarak daha akıllı hale gelebilen bir YGZ sisteminin gelişiyle ilgili temel endişelerden biri, bu sistemi kapatmanın imkansız olacağı.
Twitter'da yapay zeka araştırmacılarından başka sorular da alan Dr. de Freitas, YGZ geliştirilirken "güvenliğin son derece önemli olduğunu" söyledi.
Dr. de Freitas "Muhtemelen karşılaştığımız en büyük zorluk bu" diye yazdı.
Herkes bunun üzerine düşünmeli. Yeterli çeşitliliğin olmaması da beni çok endişelendiriyor.
2014 'te Londra merkezli DeepMind'ı satın alan Google, şimdiden, bir zeka patlamasıyla (yapay süper zekanın insan bilişinin yeteneklerini aştığı varsayımsal durum -ed.n.) ilgili riskleri azaltmak için şimdiden bir "büyük kırmızı düğme" üzerinde çalışıyor.
DeepMind araştırmacıları, 2016'da yayımlanan "Güvenle Kesintiye Uğratılabilir Araçlar" başlıklı makalede, gelişmiş yapay zekanın kapatma komutlarını göz ardı etmesini önleyecek bir çerçeve çizmişti.
Makalede "Güvenle kesintiye uğratılabilme, uygunsuz davranan ve geri dönüşü olmayan sonuçlara yol açabilecek bir robotun kontrolünü ele geçirmek için yararlı olabilir" ifadelerine yer verilmişti.
Böyle bir araç insan gözetimi altında gerçek zamanlı olarak çalışıyorsa, ara sıra bir insan operatörünün, aracın (kendisi veya çevresi açısından) zararlı bir eylem dizisine devam etmesini önlemek için büyük kırmızı düğmeye basması ve aracı daha güvenli bir duruma yönlendirmesi gerekebilir.