Yıllarca süren geliştirmeden sonra, Yapay Zeka (AI) artık otomobilleri halka açık yollarda sürüyor, sorgulanan beşerler için değerlendirmeler yapıyor ve ödüllü sanat yapıtları üretiyor.
Bu alanda uzun müddettir devam eden bir soru, muhteşem zeki bir yapay zekanın berbatlığı yayıp, insanlığı ortadan kaldırıp kaldıramayacağı.
Oxford Üniversitesi ve Google Deepmind’den araştırmacılar yeni araştırmalarda bunun “muhtemel” olduğu sonucuna vardı.
Makalenin başyazarı Michael Cohen, Twitter’da makaleyi açıkladığı tweet zincirinde, “Varoluşsal bir felaket yalnızca mümkün değil, tıpkı vakitte muhtemel” sözlerini kullandı.
ÖDÜL CEZA DÜZENEĞİNDEN YOLA ÇIKILDI
Makalede yapay zekanın eğitiminde kullanılan “pekiştirmeli öğrenme” modeline odaklanıldı.
Bu yaklaşım yapay zekaya muhakkak bir hedef doğrultusunda ne yapılması gerektiğini öğretmeyi hedefliyor.
Pekiştirmeli öğrenmede “etken” ismi verilen makine, karşılaştığı durumlara reaksiyon veriyor ve gerçek reaksiyon verdiğinde bir ödül puanı alıyor.
Küçük çocukların ödül/ceza usulüyle toplumsal maharetler edinme sürecini andıran bu teknikte yapay zeka, aldığı ödül puanını hep azamiye çıkarmak için çalışıyor.
HİLE İLE TEHDİTLERİ ORTADAN KALDIRABİLİR
Modelin risklerine dikkat çekilen makalede, “Örneğin, bir şeyin bizi tatmin ettiğini belirtmek için yapay zekaya büyük bir ödül verdik. Bizi tatmin eden şeyin aslında bu mükafatın gönderilmesi olduğunu varsayabilir. Hiçbir müşahede bunu yalanlayamaz” sözleri yer aldı.
Yazarlar, gelecekte yeni formlara kavuşacak ve daha da gelişecek yapay zekanın verilen maksada ulaşmadan mükafatı elde edebilmek için yeni teknikler geliştirebileceğini ve hileye başvurabileceğini de belirtti.
Diğer bir deyişle yapay zeka, mükafatı üzerinde denetim sağlamak için “potansiyel tehditleri ortadan kaldırmak” isteyebilir.
Bunun sonucunda insanlara ziyan vermesi de olası.