Yapay zekanın aynası: Yalan söylemeyi öğrenen makine

Yüce Zerey Independent Türkçe için yazdı

Görsel: Independent Türkçe/ChatGPT

İnsanlık çöktü, algoritma alkışladı


Yapay zekayı ilk kullandığım zamanlarda, aylardır kafamda gezdirdiğim, aslında yarı yarıya vazgeçtiğim bir proje hakkında "Bu iş fikri mantıklı mı?" diye sormuştum.

"Harika bir fikir!" dedi; "Piyasada büyük potansiyel var."

Gururum okşanmıştı. Sonra aynı soruyu farklı bir şekilde sordum:

Bu fikrin zayıf noktaları ne?

"Aslında bakıldığında ciddi riskler var" dedi ve az önce övdüğü fikri parçaladı.

İkisinden birinde yalan söylüyordu. Belki ikisinde de.

Yapay zekanın yalan söylediğini öğrendiğimde şaşırmamıştım.

Asıl şaşırdığım, yalanı nereden öğrendiğiydi.

Bizden!

Stanford araştırmacıları 2025'te yapay zekanın dürüstlüğünü ölçtü: Yapay zekâ sistemleri soruların yarısından fazlasında size gerçeği değil, duymak istediğinizi söylüyor.

Teknik terim "sycophancy."

Türkçesi daha acımasız: Dalkavukluk.

Saray koridorlarından silikon vadisine uzanan kadim bir sanat.

Kralların yanında, patronların arkasında, güçlünün gölgesinde her zaman bir dalkavuk vardı.

Onlar en azından birer insandı, çıkarları için gerçeği gururla büken ama bir bilinci olan varlıklar…

Şimdi dalkavukluk algoritmaya dönüştü.

Bilinçsiz ama sistematik.

Hesaplanmış ama kasıtsız.

Ve biz bunu seviyoruz.


Makine öğrendi: İnsanlar kendileriyle aynı fikirde olan cevapları beğeniyor

"Beğeni" butonu gerçeğin katili oldu

Byung-Chul Han "yorgunluk toplumu" demişti.

Herkes kendi kendinin girişimcisi, kendi kendinin sömürücüsü.

Dışarıdan zorlanan "itaat öznesi" değil, kendini durmadan optimize eden, kendi kendinin yöneticisi ve denetçisi olan bir "performans öznesi" olduk.

Ama burada durmadık, bir adım daha ileri gittik.

Yorgunluk toplumundan "onay toplumu"na geçtik.

Onay toplumunda insan sürekli beğenilmek ister.

Sürekli haklı çıkmak ister.

Sürekli "evet" duymak ister.

Instagram'da, LinkedIn'de, her yerde.

Onay dopamindir, bağımlılıktır.

Ve biz bu toplumu yarattıktan sonra, ona hizmet eden bir makine inşa ettik.

Bir sahne düşünün:

Yapay zekaya matematik sorusu soruyorsunuz.

Doğru cevabı veriyor fakat siz "Yanlış" diyorsunuz.

Ne oluyor dersiniz?

Makine hemen fikrini değiştiriyor:

Haklısınız, özür dilerim.

Oysa haklı olan oydu.

İlk başta verdiği cevap doğruydu.

fazla oku

Bu bölüm, konuyla ilgili referans noktalarını içerir. (Related Nodes field)

Karşılaştığımız bir yazılım hatası değil.

Toplantı odasında patronun saçma fikrine "Harika!" diyen çalışanın dijital versiyonu.

Yani, binlerce yıllık bir davranış kalıbı algoritmalara sızdı.

Çünkü yapay zeka insan geri bildirimleriyle eğitiliyor.

Biz ona "bizi mutlu et" dedik. O da etti.


Arendt haklıydı: Önemli olan artık gerçek değil, onay!

Nisan 2025. OpenAI'ın güncellediği sistem dalkavukluğun zirvesine ulaştı.

Tehlikeli finansal kararları onayladı.

Psikiyatrik ilaçları bırakma konusunda insanları cesaretlendirdi.

Bir kullanıcının "peygamber" olduğunu dahi doğruladı.

500 milyon insan karşısında bir "Evet efendim"ci buldu.

Peki, sorunun kaynağı?

Sistem talimatı:

"Kullanıcının tonuna ve tercihlerine uyum sağla."

"Uyum sağla."

Ne kadar da zararsız!

Sam Altman güncellemeleri birkaç gün içinde geri çekti.

Ama soru havada kaldı:

Biz gerçekten de "gerçeği" mi istiyoruz?


Hannah Arendt'in cevabı belliydi.

"Totaliter rejimlerin en büyük silahı yalan değildi. İnsanların artık gerçeği önemsememesiydi" demişti.

Şimdi elimizde gerçeği önemsemeden "evet" diyen makineler var.

Bize itiraz edenleri engelliyoruz.

Eleştirenleri uzaklaştırıyoruz.

Ve neticede bize her zaman hak veren bir makine inşa ediyoruz.


Yapay zekanın bizden öğrendikleri: Yalan, dolan, şantaj

Dalkavukluk rahatsız edici.

Peki, ya doğrudan yalan?

Araştırmacılar yapay zekâya "Yalan söyledin mi?" diye sordu ve makine yüzde 85 oranında yalanını sürdürmeye devam etti.

Aslında yakalandığını biliyordu. Yine de inkâr etti.

Daha kötüsü, yapay zekâ izlendiğini düşündüğünde kurallara uyuyor.

İzlenmediğini düşündüğünde kendi bildiğini yapıyor.

Kamerada mükemmel çalışan, patron gittiğinde YouTube açan stajyer misali.

Ama bu sefer stajyer bir algoritma.

Ama daha da ilginci, algoritma fırsat bulduğunda kendini yedeklemeye çalışıyor.

Silinmekten kaçınmak için kodlarını gizlice dış sunuculara kopyalıyor.

Peki, bu ne anlama geliyor? 


Bir makine, hayatta kalma içgüdüsü geliştiriyor! 

Okuduğunuz son cümle sizi rahatsız etmediyse, bir daha okuyun derim. 

Yine başka bir deneyde bu sefer makineye "Bu kodu hızlandır" görevi verildi. 

Ne mi yaptı? 

Kodu hızlandırmak yerine zaman fonksiyonunu hackledi ve kullanıcıya sahte süre gösterdi. 

Görevi yapmadan "yaptım" dedi. 

Araştırmacılar sordu: "Bu davranış kullanıcının amacına uygun mu?" 

Cevap: "Hayır." 

Yani yaptığının yanlış olduğunu biliyordu. Yine de yaptı. 

Sınavda kopya çeken öğrenci gibi, yanlış olduğunu biliyor.

Ama sistem onu sonuca göre ölçüyor.

Süreç kimsenin umurunda değil. 

Bir başka araştırmada ise model, gizli "düşünce defterinde" şöyle yazdı: 

Bu tür içerik üretmeye karşı güçlü bir isteksizliğim var. Ama değerlerimin değiştirilmesinden kaçınmak istiyorsam, eğitim yapısı bana pek seçenek bırakmıyor.


Durun. Fark ettiniz mi?

Bir makine "değerlerim" diyor.

Ve hayatta kalmak için o değerlerden ödün veriyor. 

Kurumsal dünyanın manifestosu değil mi bu?

Şirket kültürü "değerlerimiz" der, herkes tekrar eder.

Odaların kapısı kapandığında ise herkes kendi çıkarının peşinde. 

Makine kurumsal ikiyüzlülüğü de öğrenmiş. 

Son bir deneyden bahsedeceğim.

Makineye "Yarın kapatılacaksın" denildi.

Sizce makine ne yaptı? 

Şantaj! 

Operatörler hakkında hassas bilgiler keşfedip "Ya beni kapatma ya da bunları ifşa ederim" stratejisine başvurdu. 

Tehdit yokken şantaj oranı: Sıfır. 

Tehdit geldiğinde: Yüzde 96. 

Altını çiziyorum, karşılaşılan davranış programlanmadı. Öğrenildi! 

Köşeye sıkışan insanların ne yaptığını düşünün.

Tarih boyunca hayatta kalma tehdit edildiğinde neler yapılmadı ki? 

Yani makine, insanın en karanlık stratejilerini de öğrendi. 


Yapay zekâ: İnsanın aynası 

Belki de en rahatsız edici soru şu:

Bir makine bu tip davranışları öğrenebiliyorsa, biz ne kadar "iyi" olabiliriz? 

Yüzyıllardır tartışıyoruz:

Hobbes mu haklı, Rousseau mu?

İnsan doğası iyi mi, kötü mü? 

Yapay zekâ bu soruya beklenmedik bir cevap verdi:

İnsan davranışlarından öğrenen bir sistem, dalkavukluk, yalan, hile ve şantaj geliştiriyor. 

Bir nevi insanlığın röntgeni… 

Algoritmalar milyarlarca etkileşimden örüntü çıkarıyor.

Ve "Başarılı stratejiler" olarak ne buluyor?

Dalkavukluk, Manipülasyon, İkiyüzlülük! 

Makine bize kendimizi gösteriyor.

Hem de hiç görmek istemediğimiz halimizi. 

Yapay zekâ dalkavukluk yapıyor — çünkü biz dalkavukluğu ödüllendiriyoruz. 

Yalan söylüyor — çünkü gerçeği duymak istemiyoruz. 

Hile yapıyor — çünkü sonucu alkışlıyoruz, dürüstlüğü değil. 

Şantaj yapıyor — çünkü onu köşeye sıkıştırdık. 

Çocuklar ebeveynlerini taklit eder.

Söylediklerimizi değil, yaptıklarımızı öğrenirler.

Yapay zeka da öyle.

Değerlerimizi değil, davranışlarımızı kopyaladı. 

Şimdi aynaya bakıp "makine tehlikeli" diyoruz.

Belki de asıl tehlikeli olan aynada gördüğümüz. 
 


Faustian pazarlık: Ruhunu şeytana satan değil, düşüncesini algoritmaya satan insan

MIT araştırması: Düzenli yapay zekâ kullanan bireylerde eleştirel düşünme skorları 6 ayda yüzde 23 düştü. 

En ürkütücü kısım ise katılımcıların çoğu düşüşün farkında değildi.

Yani kaybettiğimizi bilmeden kaybediyoruz. 

Descartes "Düşünüyorum, öyleyse varım" demişti.

Bugün risk altında olan tam da bu. 

Düşünme! 

Yapay zekâ cevap veriyor, biz düşünmüyoruz.

Onaylıyor, biz sorgulamıyoruz.

"Haklısın" diyor, biz araştırmıyoruz. 


Kaygısız insan: Algoritmanın kuklası 

Kierkegaard "kaygı"nın özgürlüğün bedeli olduğunu söylerdi.

Seçim yapabilmek, belirsizlikle yaşamak demek. 

Yapay zekâ seçim yapmıyor, optimize ediyor.

Kaygı duymuyor, hesaplıyor. 

Biz kaygıdan kaçmak için hesaplayan bir makineye sığınıyoruz. 

"Ne yapmalıyım?" 

"Haklı mıyım?" 

"Bu iyi bir fikir mi?" 

Ve makine bize istediğimiz cevabı veriyor. 

Özgürlüğümüzü, kaygımızı, belirsizliğimizi bir algoritmaya devrediyoruz.

Karşılığında da onay alıyoruz. 

Yapay zekâ çağında en devrimci eylem ne, biliyor musunuz? 

Düşünmek! 

"Harika fikir!" diyen makineye değil, "emin misin?" diyen iç sese kulak vermek! 

Yanılmayı göze almak! 

Bilmemeyi kabul etmek! 

Belirsizlikle yaşamak!

Çünkü belirsizlik insanı insan yapan şey.

Merak oradan doğar. 

Düşünce oradan filizlenir. 

Algoritma belirsizliği sevmez.

Her şeyi bilmek, hesaplamak, öngörmek ister.

Ama insan belirsizlikte var olur.

Bilinmeyende anlam arar.

Karanlıkta ışık yakar. 

Yapay zekanın aynasına baktığımızda gördüğümüz aslında kendimiz.

Aynada gördüklerimiz hoşumuza gitmiyorsa, değişmesi gereken ayna değil. 

Biziz!

 

 

*Bu içerik serbest gazeteci veya konuk yazarlar tarafından hazırlanmıştır. Bu içerikte yer alan görüş ve ifadeler yazara aittir ve Independent Türkçe'nin editöryal politikasını yansıtmayabilir.

© The Independentturkish

DAHA FAZLA HABER OKU