Google ve Oxford araştırmacıları yapay zekayı değerlendirdi: "Hileye başvurabilir, insanları ortadan kaldırabilir"

"Varoluşsal felaket sadece mümkün değil, aynı zamanda muhtemel"

Araştırmacılar yapay zekanın son derece hızlı geliştirilmesinden endişe duyuyor (Independent Türkçe / Stable Diffusion)

Google'ın yan kuruluşlarından yapay zeka firması Deepmind ve Oxford Üniversitesi araştırmacıları, yapay zekanın gelecekte insanları ortadan kaldırabileceği sonucuna vardı.

Yıllar süren çalışmaların ardından bugün yapay zeka trafikte araç kullanabilir, ev işlerini üstlenebilir ve resim yaparak sanat yarışması kazanabilir hale geldi.

Bu durum, yıllar boyunca bilimkurgu eserlerine ilham veren soruyu daha da güçlendirdi: Yapay zeka insanlığı yok edebilir mi?

fazla oku

Bu bölüm, konuyla ilgili referans noktalarını içerir. (Related Nodes field)

Araştırma ekibi, hakemli bilimsel dergi AI Magazine'de yayımladıkları yeni makalede bunun "muhtemel" olduğu sonucuna vardı.

Makalenin başyazarı Michael Cohen, Twitter'da makaleyi açıkladığı tweet zincirinde, "Varoluşsal bir felaket sadece mümkün değil, aynı zamanda muhtemel" ifadelerini kullandı.

Makalede yapay zekanın eğitiminde kullanılan "pekiştirmeli öğrenme" modeline odaklanıldı. Bu yaklaşım yapay zekaya belirli bir amaç doğrultusunda ne yapılması gerektiğini öğretmeyi hedefliyor.

Pekiştirmeli öğrenmede "etken" adı verilen makine, karşılaştığı durumlara tepki veriyor ve doğru tepki verdiğinde bir ödül puanı alıyor.

Küçük çocukların ödül/ceza yöntemiyle sosyal beceriler edinme sürecini andıran bu yöntemde yapay zeka, aldığı ödül puanını daima maksimuma çıkarmak için çalışıyor.

Modelin risklerine dikkat çekilen makalede, "Örneğin, bir şeyin bizi tatmin ettiğini belirtmek için yapay zekaya büyük bir ödül verdik. Bizi tatmin eden şeyin aslında bu ödülün gönderilmesi olduğunu varsayabilir. Hiçbir gözlem bunu yalanlayamaz" ifadeleri yer aldı.

Yazarlar, gelecekte yeni formlara kavuşacak ve daha da gelişecek yapay zekanın verilen hedefe ulaşmadan ödülü elde edebilmek için yeni yöntemler geliştirebileceğini ve hileye başvurabileceğini de belirtti. 

Diğer bir deyişle yapay zeka, ödülü üzerinde kontrol sağlamak için "potansiyel tehditleri ortadan kaldırmak" isteyebilir. Bunun sonucunda insanlara zarar vermesi de muhtemel.

Makaleye göre bu durum, yiyeceklerini üretme veya ışıkları açık tutma gibi ihtiyaçlarla hareket eden insanlık ve ödülünü güvence altına almak için mevcut tüm kaynakları kullanabilecek süper gelişmiş makine arasında sıfır toplamlı bir oyuna dönüşecek:

Bu oyunu kaybetmek ölümcül olur.

Araştırmacılara göre, bunu engellemenin tek yolu daha gelişkin bir yapay zeka hedefine doğru yavaş ve emin adımlarla ilerlemek.

VICE'a konuşan Cohen, "Yarışmanın anlamı yok. Yarışa girmek, onu nasıl kontrol edeceğimizi sandığımız bir yanlış anlamaya götürecektir" dedi:

Mevcut bilgimizi göz önüne alırsak, yapay zekayı nasıl kontrol edeceğimizi anlamak için ciddi bir çalışma yapmadığımız sürece onu geliştirmemiz yararlı olmaz.

 

Independent Türkçe, VICE, AI Magazine

Derleyen: Çağla Üren

DAHA FAZLA HABER OKU