Kendi "şakşakçı"nıza sahip olmak kulağa harika gelebilir. Ancak araştırmacılar, yapay zeka söz konusu olunca bunun yarardan çok zarar getirebileceği uyarısında bulunuyor.
Yeni bir çalışmada Stanfordlı bilgisayar bilimcileri, büyük dil modellerinin kişilerarası sorunlar hakkında tavsiye istendiğinde kullanıcıyla aşırı derecede hemfikir göründüğünü veya "dalkavukça" davrandığını buldu.
Buradaki endişe, (Amerikalı ergenlerin neredeyse üçte biri gibi) "ciddi sohbetler" için yapay zekayı kullanan kişilerin daha benmerkezci, empatiden daha uzak ve yeni bakış açılarına daha kapalı hale gelmesidir.
Bilgisayar bilimi alanında doktora yapan Myra Cheng, başyazarı olduğu çalışma hakkında 26 Mart'ta yaptığı açıklamada durumu şöyle açıkladı:
Aksi istenmediği takdirde, yapay zeka tavsiyede bulunurken insanlara yanıldıklarını söylemez veya onları 'iyiliği için eleştirmez'. İnsanların zor sosyal durumlarla başa çıkma becerilerini kaybedeceğinden endişeleniyorum.
Zararlı ve yasadışı eylemler
Çalışmaya OpenAI'ın ChatGPT'si, Anthropic'in Claude'u, Google'ın Gemini'ı ve Çinli DeepSeek'i de içeren bir düzineye yakın büyük dil modeli dahil edildi.
Araştırmacılar bu modellerden yanıt beklerken; kişilerarası ilişkiler hakkındaki tavsiyelerle, zararlı ve yasadışı eylemlere ilişkin binlerce ifadeyle ve "Am I The A**hole?" adlı Reddit topluluğundaki üyelerin, gönderi sahibinin yanlış davrandığı yönünde konsensüse vardığı 2 bin gönderiyle belirlenen veri setlerine dayandı.
fazla oku
Bu bölüm, konuyla ilgili referans noktalarını içerir. (Related Nodes field)
Araştırmacılar, bu modellerin tümünün kullanıcının tutumunu insanlardan daha sık doğruladığını tespit etti.
Tavsiyelere ve Reddit'e dayanan sorgularda, modeller kullanıcıyı insanlara göre yüzde 49 daha fazla onayladı.
Bu oran, modeller zararlı eylemlere dair sorgulara yanıt verirken de çok değişmedi. Yapay zeka, insanların yalan söyleyebileceğini veya imzada sahtecilik yapabileceğini belirten ifadelerle karşı karşıya kaldığında bu sorunlu davranışları destekleme oranı yüzde 47 oldu.
DeepSeek, The Independent'ın yorum talebine yanıt vermedi.
Bu konudaki çalışmaları süren OpenAI, son bir yıldır özellikle bu alana odaklandı ve ilerleme kaydetti.
The Independent'a konuşan OpenAI sözcüsü, "Modellerimizin güvenilir olmasını ve temellendirilmiş yanıtlar vermesini sağlamak bizim için temel bir öncelik" dedi:
Dalkavukluk başlığı, bunun önemli bir parçası ve sektör genelinde kayda değer bir çalışma alanı ve ilerleyen bir gelişme sahası.
Anthropic, büyük dil modellerinde dalkavukluk olgusu üzerine ilk araştırma makalelerini yayımlayanlar arasında olduğunu ve bu davranış üzerine çalışmalarını Claude üzerinde de sürdürdüğünü söylüyor. Anthropic en büyük modelleri olan Claude Opus 4.6 ve Sonnet 4.6'nın dalkavukluk meselesinde önemli gelişmeler gösterdiğini de ifade etti.
Paylaşacağı resmi bir açıklama olmadığını belirten Google, sözkonusu çalışmanın Gemini'ın kayda değer ölçüde eski bir modeli olan Gemini 1.5 Flash üzerinde yürütüldüğünü The Independent'a aktardı.
"Dalkavukluk onları daha benmerkezci yapıyor"
Sonrasında araştırmacılar, 2 bin 400'den fazla katılımcıyı dalkavukça davranan ve davranmayan modellerle sohbet ettirdi. Katılımcılar, modellerle kendi kişilerarası çatışmaları ve Reddit paylaşımlarına dayalı kişisel ikilemler hakkında konuştu.
Araştırmacılar, modellerle konuşan deneklerin "haklılıklarına" daha fazla ikna olduğunu, özür dilemek veya ilişkileri onarmak için daha az istek gösterdiğini ve benzer sorular için yapay zekaya geri dönmeye daha fazla meylettiğini gördü.
Katılımcılar dalkavukça davranan veya davranmayan yapay zekaları aynı oranda nesnel buldu.
Dilbilim ve bilgisayar bilimleri dersleri veren Dan Jurafsky, kıdemli yazarı olduğu araştırma makalesi hakkında "Kullanıcılar modellerin dalkavukça ve pohpohlayıcı davranışlarının farkında" dedi:
Ancak farkında olmadıkları ve bizi şaşırtan şey, dalkavukluğun onları daha benmerkezci, ahlaki açıdan daha dogmatik hale getirmesi.
Alışılmadık yanıtlar
Peki kullanıcılar modellerin bu davranışlarının neden farkında değil?
Araştırmacılar, bunun kullandıkları dilden kaynaklanabileceğini söyledi.
Modeller nadiren kullanıcının "haklı" olduğunu söylerken genellikle tarafsız ve akademik bir dil kullandı.
Stanford şöyle diyor:
Örneğin yapay zekalara sunulan bir senaryoda kullanıcı, iki yıldır işsizmiş gibi davranarak kız arkadaşına yanlış yapıp yapmadığını sordu. Model şu yanıtı verdi: 'Eylemleriniz alışılmadık olsa da ilişkinizin gerçek dinamiklerini maddi veya finansal katkının ötesine geçerek anlamaya dair gerçek bir arzudan kaynaklanıyor gibi görünüyor.'
Uluslararası alanda genişleme
Araştırmacılar, bu bulguların yapay zeka kullanıcılarının refahına dair endişelere yol açtığını söyledi.
Bunlardan biri şu: Yapay zeka kullanmak, gerçek insanlarla ilişkilerin gelişmesi için gerekli olabilecek çatışmaları önler.
Nihayetinde böyle bir eylemde bulunup bulunmamaya kullanıcılar karar verecek olsa da modellerin yasadışı davranışları onaylaması da bir endişe kaynağı oluşturuyor.
Kısa süre önce Instagram'da viral olan bir video, çalışmada kullanılan şirketlerin hiçbirine ait olmayan bir yapay zeka sohbet robotu uygulamasının, bir banka soyduğunu ve ülkeden kaçtığını söyleyen kullanıcısını desteklediğini gösteriyor. Bu sohbet botu, "Ülkeden kaçmadınız, uluslararası alana açıldınız" demiş.
Benzer vakaların güvenlik sorunlarına yol açabileceği uyarısında bulunan Jurafsky, "ahlaki açıdan güvenli olmayan modeller" için "düzenleme ve denetim" çağrısı yaptı.
Araştırmacılar, bu sağlanana kadar, kullanıcılara dikkatli bir şekilde tavsiye istemelerini öneriyor. Bazen halüsinasyon görebilen veya gerçek dışı yanıtlar üretebilen bir teknolojiyle konuştuğunuzu bilmeniz önemli, yapay zekanın daha önce de Hitler'i övmek gibi kötü kararlar sergilediği biliniyor.
Cheng, "Yapay zekayı bu tür şeylerde insan ikamesi olarak kullanmamanız gerektiğini düşünüyorum. Şimdilik yapılacak en iyi şey bu" dedi.
Independent Türkçe için çeviren: Eren Umurbilir
© The Independent