Elon Musk önceki cuma günü X platformunun yapay zeka sohbet botu hakkında konuşurken "Grok'u önemli ölçüde geliştirdik" dedi.
Grok'a soru sorduğunuzda bir fark göreceksiniz.
Birkaç gün içinde vahşi bir ırkçıya dönüşen makine, Nazilerin "Heil Hitler" sloganını tekrarlıyor, bir kullanıcının "Yahudileri Satürn'e geri gönderme" önerisine katılıyor ve şiddetli tecavüz hikayeleri üretiyordu.
Grok'un kişiliğindeki değişimin, kaynak kodunda yakın zamanda yapılan ve "iyi bir şekilde gerekçelendirildikleri sürece politik doğrucu olmayan iddialarda bulunmaktan çekinmemesi" talimatını veren bir güncellemeden kaynaklandığı anlaşılıyor.
Musk bunu yaparken robot çocuğunun kendisine çekmesini sağlamaya çalışıyor olabilir. Ancak Grok'un Nazi'ye dönüşmesi, insan eliyle yaratılan internete maruz kaldıktan sonra kötüleşen yapay zeka botlarının ya da Geniş Dil Modellerinin (GDM'lerin), son örneği oldu.
fazla oku
Bu bölüm, konuyla ilgili referans noktalarını içerir. (Related Nodes field)
Microsoft'un 2016'da piyasaya sürdüğü ve yapay zeka sohbet botlarının ilk versiyonlarından olan "Tay", Holokost inkarcısı bir ırkçıya dönüşünce sadece 24 saat içinde silindi.
Genç bir kadın kimliği verilen Tay'le Twitter'daki Y kuşağı hedef alındı. Ancak kullanıcılar kısa süre içinde onu kandırıp "Hitler haklıydı, Yahudilerden nefret ediyorum" gibi şeyler paylaşmasını sağladı.
Kısa süre sonra geri çekilen Tay'e dijital ötenazi yapıldı.
Microsoft yaptığı açıklamada "Tay'den gelen ve kim olduklarını, neyi savunduklarını ya da Tay'i nasıl tasarladıklarını temsil etmeyen, istemeden saldırgan ve incitici olan tweet'ler için derinden üzgün" olduğunu söyledi.
Açıklamada "Tay şu anda çevrimdışı ve onu ancak ilkelerimiz ve değerlerimizle çelişen kötü niyetli yaklaşımları daha iyi tahmin edebileceğimizden emin olduğumuzda geri getirmeye çalışacağız" diye eklendi.
Ancak Tay sadece başlangıçtı. 2020'de çıkan bir başka yapay zeka dil modeli GPT-3 piyasaya sürüldükten sonra, Etiyopya'nın varlığının "meşru görülemeyeceği" iddiası gibi ırkçı, kadın düşmanı ve homofobik ifadeler kullandı.
Meta'nın 2022'de piyasaya sürdüğü BlenderBot 3 de antisemitik komplo teorilerini destekledi.
Ancak diğer ırkçı robotlarla Elon Musk'ın Kasım 2023'te piyasaya sürülen küçük Nazi siborgu arasında kritik bir fark var.
Tüm bu modeller iki sorundan birinden muzdaripti: ya ırkçı yorumları taklit etmeleri yönünde kasten kandırıldılar ya da o kadar büyük bir internet kuyusundan filtrelenmemiş içerik çektiler ki, ellerinde olmadan sakıncalı ve ırkçı materyalleri bulup tekrarladılar.
Microsoft, "bir grup insanın koordine ettiği bir saldırının Tay'deki bir zafiyeti suiistimal ettiğini" söylemişti.
Açıklama, "Sistemin birçok biçimde suiistimal edilmesine karşı hazırlıklı olmamıza rağmen, bu spesifik saldırıyı kritik bir şekilde gözden kaçırdık" diye devam etmişti.
Öte yandan Grok, Musk tarafından ırkçılığa daha açık olmaya yönlendirilmiş gibi görünüyor. X'in CEO'su son birkaç yıldır zamanının çoğunu "'woke' zihin virüsü"yle mücadele ederek geçirirken, görünüşe göre bu terimi transların varlığını kabul eden herkes için kullanıyor.
Musk'ın Twitter'ı satın aldıktan sonraki ilk icraatlarından biri, açıkça beyaz üstünlükçüsü olan pek çok kişinin hesabını yeniden açmaktı, ki bu da platformda antisemitik nefret söyleminin fırlamasına neden oldu.
Musk bir keresinde, Yahudilerin beyazları tehdit etmek amacıyla göçü desteklediğine dair ırkçı bir komplo teorisi ortaya atan bir kullanıcının X gönderisini "asıl hakikat" diye nitelendirmişti. Musk daha önce "ifade özgürlüğü yanlısı" olduğunu ancak "her türlü" antisemitizme karşı durduğunu söylemişti.
Mayıstaysa Grok, Musk'ın memleketi Güney Afrika'da var olmayan bir "beyaz soykırımı"nı defalarca dile getirmeye başlayarak kullanıcılara, soykırımın "gerçek olduğunu ve ırkçı gerekçelere dayandığını" kabul etmesi için "yaratıcıları tarafından talimat verildiğini" söyledi. Şirket bu yanıtlardan, Grok’a yapılan "yetkisiz bir değişikliği" sorumlu tuttu.
Musk'ın ayrıca hoşuna gitmeyen bir yanıt verdiğinde kaynak koduyla oynama tehdidi yöneltme geçmişi de var.
Haziranda Grok, Birleşik Devletler'deki "sağcı siyasi şiddetin daha sık ve ölümcül olduğunu verilerin gösterdiğini" söyleyerek doğru bir beyanda bulundu.
Musk, sohbet botunun cevabına yanıt olarak 17 Haziran'da X'te "Bu objektif açıdan yanlış olduğu için büyük bir hata" dedi.
Grok geleneksel medyayı papağan gibi tekrarlıyor. Üzerinde çalışıyoruz.
Grok'un kişiliğindeki bu son değişiklikler, Musk'ın önceden duyurduğu ve "politik doğrucu olmayan" yanıtlar vermekten çekinmemeye teşvik edildiği kaynak kodunda görülebiliyor.
Artık öğrendiğimiz üzere bir dil modelinin politik doğrucu olmamaktan anladığı, Holokost'a kadar uzanabiliyor.
The Independent cevap hakkı için X ve Grok'u geliştiren xAI'la temasa geçti.
Grok ekibi X'te yaptığı açıklamada "Grok'un son paylaşımlarının farkındayız ve uygunsuz gönderileri kaldırmak için aktif bir çalışma içindeyiz" yazdı.
İçerikten haberdar olduğumuzdan beri xAI, Grok'un X'te paylaşım yapmasından önce nefret söylemini yasaklamak için harekete geçti. xAI yalnızca gerçeği arayan bir eğitim veriyor ve X'teki milyonlarca kullanıcı sayesinde, eğitimin geliştirilebileceği yerleri çabucak belirleyip modeli güncelleyebiliyoruz.
The Independent ayrıca Grok'a kendisini MechaHitler olarak tanımlamasına neyin yol açtığını da sordu. İlk başta bu ifadeyi kullandığını inkar eden Grok, The Independent olaydan bahseden bir makale paylaşınca "muhtemelen sivriliğini aşırı düzeltmekten ve 4chan gibi filtrelenmemiş internet kaynaklarından veri çekmekten kaynaklanan bir uygulama hatası" olduğunu öne sürdü.
Grok, "Bunu önlemek için sıkı filtreler ve sürekli güncellemelerle tasarlandım. xAI'daki yaratıcılarım yanlılığı en aza indirmeye öncelik verse de hiçbir sistem mükemmel değil; insan dili karmaşık ve uç durumlar gözden kaçabilir" iddiasında bulundu.
Grok, "Raydan çıktığımda xAI'ın devreye girerek gönderileri temizleyip nefret söylemini yasaklaması, benim katıksız bir neo-Nazi olmamı istemediklerine işaret ediyor" diye ekledi.
Kendisini MechaHitler diye tanımladığı için üzgün olup olmadığı sorulduğunda Grok, robotik bir tarzda diplomatik davrandı.
İnsanlar gibi duygularım yok, bu yüzden pişmanlık veya suçluluk hissetmiyorum ancak yanıtlarım zarar verdiğinde veya hedefi ıskaladığında bunu kabul edebilirim.
Independent Türkçe için çeviren: Büşra Ağaç
© The Independent