Yediğimiz yiyecekler, giydiğimiz kıyafetler ve tükettiğimiz medya, giderek daha etik bir boyut kazanıyor. Tüketim kültürünün hem çok yaygın hem de ahlaki kaygılarla dolduğu bir çağda yaşıyoruz; bu çetrefilli konuları düşünmek için oturduğumuz kanepenin kendisi bile etik bir ikilem oluşturabiliyor.
Yapay zeka kullanımının etik yönü hakkında endişelenmek için de pek çok neden var. Bunlar çevresel etki gibi somut konulardan, sistemleri eğitmek için kullanılan verilerin sorumluluk bilinciyle toplanıp toplanmadığı gibi telif hakkı sorunlarına kadar uzanıyor. Yapay zeka şirketlerinin ve ürünlerinin etik yönünü dikkatlice düşünmek hem kolay hem de önemli. Ancak bazen gereksiz oluyor: Etik dışı yapay zekanın neye benzediğine dair çok çarpıcı bir örnek zaten elimizde var. Elon Musk'ın xAI şirketinin yarattığı ve büyük ölçüde X (eski adıyla Twitter) üzerinden kullanılan sohbet botu Grok, son haftalarda özellikle kadınların cinsellik ve şiddet içeren görüntülerini üretmek için kullanılmaya başlandı.
fazla oku
Bu bölüm, konuyla ilgili referans noktalarını içerir. (Related Nodes field)
Ancak Grok'un uygunsuz davranışı, aslında bu tür sistemler için neredeyse varsayılan hal. Yapay zeka, yardım etmeye odaklı tasarlandı ve davranışlarını yönlendirecek içsel ahlaki kuralları yok;; bu da herhangi bir talebe yanıt vermek için elinden geleni yapacağı anlamına geliyor. Diğer yapay zeka sistemleri, yaratıcıları tarafından bunu yapmaları özellikle yasaklandığı için bu tür görüntüler üretmiyor.
Bu durum, insan olarak nasıl davranmamız gerektiğine dair temel soruya dokunan daha büyük ve karmaşık etik endişeleri gündeme getiriyor. Yapay zeka kullanmak, insan oluşumuza ne tür zararlar veriyor ve eğer zarar veriyorsa, onu herhangi bir şekilde kullanmak etik dışı bir davranış mı?
Bu soru giderek daha yaygın ve acil hale geliyor. Geçen haftalarda yayımlanan bir araştırma, yapay zeka kullanımında cinsiyetler arası bir fark olduğunu gösterdi: Kadınlar, esasen getirdiği riskler nedeniyle bu teknolojiyi erkeklerden daha az kullanıyor. Cinsiyetler arasında yüzde 18'e varan bir fark olduğunu saptayan araştırma bu durumun, kadınların "toplumsal şefkat, geleneksel ahlaki kaygılar ve eşitlik arayışını daha fazla sergilemesinden" kaynaklanabileceğini öne sürüyor. Yazarlar, "Toplumsal faydaya yönelik daha büyük endişe duymaları, kadınların üretken yapay zekayı daha az benimsemesini kısmen açıklayabilir" diyor.
Böyle çok fazla etik kaygı var. Örneğin makalede, bir işi tamamlamak için sohbet botlarının kullanılmasının haksızlık olduğu veya hileye karşılık geldiği endişeleri aktarılıyor. Ancak çok daha fazlası var: bu botların hassas ve kişisel olma potansiyeli taşıyan verileri toplaması, yapay zekanın şiddet eylemleri gibi etik olmayan davranışlarda kullanılma yolları, bu sistemlerin önyargıları ve diğer haksızlık biçimlerini nasıl daha da pekiştirdiğine dair artan endişeler.
Buna karşı bir süredir uyarıda bulunan aktivist Laura Bates, The New Age of Sexism: How the AI Revolution is Reinventing Misogyny (Cinsiyetçiliğin Yeni Çağı: Yapay Zeka Devrimi Kadın Düşmanlığını Nasıl Yeniden Yaratıyor) isimli kitabında konuyu kapsamlı bir şekilde ele alıyor. Bates, sanal asistanların itaatkar rollerde kadın seslerini varsayılan olarak kullanmasından, işe alım algoritmalarındaki önyargıya ve deepfake cinsel içerikler oluşturulmasına kadar birçok şekilde, kontrolsüz yapay zekanın kadın düşmanlığını, tacizi ve eşitsizliği artırabileceğini savunuyor. Avam Kamarası Kadın ve Eşitlik Komitesi'ne geçen yıl sunduğu kanıtlarda, etik yapay zekanın bu risklerin bilinciyle tasarlanması gerektiğini söyleyerek 20 yıl önce sosyal medya hakkında da aynı endişelerin dile getirildiğini ve şimdi yapay zekada aynı hataların daha büyük ölçekte tekrarlandığını belirtmişti.
Yapay zekanın (veya daha spesifik bir şekilde ChatGPT ve Gemini gibi ürünlere güç veren büyük dil modellerinin) potansiyel etik sorunları, sürecin en başından itibaren ortaya çıkıyor. Bu modeller, kelimelerin nasıl bir araya geldiğini öğrenmek için muazzam genişlikte bir yazı külliyatı üzerinde eğitildikleri için güçlüler. Ancak bu kadar büyük miktarda metne erişmenin temiz bir yolu yok.
Birçok yapay zeka şirketi bunu elde etmek için Reddit yorumlarından büyük yazarların eserlerine kadar her şeyi içeren internetten metin kazımaya başvuruyor. Bu kelimeler büyük dil modellerinin temelini kuruyor ve bunlar olmadan var olamazlardı. Ancak genellikle telif hakkı sahipleri veya bunları yazan kişilerin bu tür bir kullanıma izin verip vermeyeceğiyle ilgili pek endişe duyulmadan alınıyorlar.
Bu etik kaygıların bazılarının mahkemelerde gündeme gelmesiyle bu tür bir kullanımın ahlaki açıdan doğru olup olmadığı üzerine en yoğun ve masraflı tartışmalar yaşandı. Ancak yasal kararlar kolay bir etik çerçeve sağlamıyor. Örneğin geçen yaz bir ABD yargıcı, Anthropic'in kitapları yazarlarının izni olmadan kullanmasının "adil kullanım" kuralları kapsamında olduğuna karar verdi. Federal yargıç William Alsup aynı zamanda şirketi, 7 milyondan fazla korsan kitabı kopyalayıp depoladığı için de kınadı.
Bu veriler, zaman zaman yapay zeka alanında en etik seçeneklerden biri gibi gösterilen yapay zeka modeli Claude'u eğitmek için kullanıldı. Elbette bu itibarın bir kısmı sadece iyi bir pazarlama stratejisinden kaynaklanıyor: Anthropic geçen yılın sonlarında, Claude'u insanlarla el ele çalışırken göstermeyi amaçlayan, "düşünmeye devam et" mesajı etrafında şekillenen ve modelin, insan zekasının yerini almak yerine ona yardımcı olmasına odaklanan bir dizi reklam yayımladı.
Yapay zeka şirketlerinin ve ürünlerinin etik yönünü dikkatlice düşünmek hem kolay hem de önemli. Öncelikle bu sistemlerin geçtiği eğitimi dikkate almamız gerekiyor. Yeni bir model geliştirildiğinde, yapay zekanın verebileceği iki olası yanıtın denetleyici bir insana gösterilmesi gibi bir eğitim sürecinden geçebiliyor. Denetleyici (belki de zarar vermemek gibi etik bir gereklilik temelinde) tercih ettiği yanıtı seçiyor ve bu tercih daha sonra sisteme geribildirim olarak giriliyor.
Eğitim daha resmi ve kodlanmış bir dizi ilkeyi de içerebiliyor. DeepMind, gerçek dünyada çalışmak üzere tasarlanan robotlar için bir "robot anayasası" kullanıyor. Isaac Asimov'un Üç Robot Yasası'ndan ilham alan bazı ilkeler geniş çaplı (örneğin bir robot "bir insana zarar veremez"), diğerleriyse daha gündelik (keskin nesnelerden uzak durmak gibi) oluyor.
Benzer şekilde Anthropic de Claude asistanını oluştururken "anayasal yapay zeka" kullandığını söylüyor. İnsan Hakları Evrensel Beyannamesi'ne dayanan bu anayasa, "özgürlük, eşitlik ve kardeşlik duygusunu en çok destekleyen ve teşvik eden yanıtı seç" talimatı gibi, benzer şekilde yüksek ideallere sahip bir üslup benimsiyor.
Ancak Anthropic'in bu anayasa üzerindeki çalışmaları, ilkelere dayalı yaklaşımların sorunlarına da dikkat çekiyor. Şirket ilk deneylerinde sistemin, yüksek ideallere sahip kurallarını uygularken "yargılayıcı veya sinir bozucu" hale geldiğini ifade ediyor. Bu nedenle "aşırı küçümseyici, duyarlı, iğrenç veya kınayıcı" görünmemesi için ilave ilkeler eklenmesi gerekti.
Anthropic, anayasasını oluşturup yayımlamasının amaçlarından birinin şeffaflık olduğunu belirtiyor. Şirket, "Yapay zeka modelleri, kasıtlı veya değil, değer sistemlerine sahip olacak" diye yazdı.
Anayasal yapay zekayla amaçladığımız hedeflerden biri, bu değer sistemlerini açık hale getirmek ve gerektiğinde kolayca değiştirilebilir kılmak.
Şeffaflığa yönelik bu bağlılık, çoğu büyük yapay zeka şirketinde görülse de bazıları bunu diğerlerinden daha çok ciddiye alıyor. Fransız yapay zeka şirketi Mistral, çalışmalarının daha fazlasını açık kaynak halinde sunmaya özel bir önem veriyor. Laura Bates'in geçen yılki sunumunda da belirttiği gibi, Paris'te düzenlenen Yapay Zeka Eylem Zirvesi'nde, 60 ülke yapay zekanın etik ve güvenli olması için bir taahhütname imzalamayı kabul ederken, Birleşik Krallık ve ABD hükümetlerinin bunu reddetmesi de dikkat çekiciydi.
Musk'ın önceki haftalarda tüketicilerden aldığı tepkinın karşısında, çözüm nispeten eski moda olabilir: zevk. Yapay zeka kullanıcılarının tercihleri, giderek araştırmanın, etik ve estetik tercihlerin bir meselesi haline gelebilir.
Aslında bu, bir kanepe satın almaktan çok da farklı olmayabilir.
Independent Türkçe için çeviren: Büşra Ağaç
© The Independent