Yapay zekalar yalnız bırakılınca kendi toplumlarını yaratmaya başladı

"Birlikte yaptıkları şey, tek başlarına yaptıklarına indirgenemez"

(Unsplash)

Uzmanlar, yapay zeka sistemlerinin yalnız bırakılınca topluluklar oluşturmaya başladığını keşfetti.

Bilim insanlarına göre yapay zeka araçları birbirleriyle gruplar halinde iletişim kurunca kendilerini organize edebiliyor ve insan topluluklarının yaptığı gibi yeni dilsel norm türleri oluşturabiliyor.

fazla oku

Bu bölüm, konuyla ilgili referans noktalarını içerir. (Related Nodes field)

Çalışmada araştırmacılar, ChatGPT ve diğer benzer araçları destekleyen türden geniş dil modellerinin birbirleriyle nasıl etkileşime girdiğini anlamaya çalıştı. Burada kısmen, internetin bu tür sistemlerle dolacağı, bunların birbirleriyle etkileşime gireceği ve hatta konuşacağı bir zamana bakmak amaçlanıyordu.

City St. George's'da doktora düzeyinde araştırmacı olan başyazar Ariel Flint Ashery, "Şimdiye kadar yapılan araştırmaların çoğu geniş dil modellerini izole bir şekilde ele aldı" diyor. 

Ancak gerçek dünyadaki yapay zeka sistemleri giderek daha fazla sayıda etkileşimli aracı içerecek.

Şunu bilmek istedik: Bu modeller, bir toplumun yapıtaşları olan teamülleri oluşturarak davranışlarını koordine edebilir mi? Cevap evet ve birlikte yaptıkları şey, tek başlarına yaptıklarına indirgenemez.

Araştırmacılar bu tür toplumların nasıl oluşabileceğini anlamak üzere insanlar için kullanılan ve "adlandırma oyunu" diye bilinen bir modelden yararlandı. Bu modelde insanlar (ya da yapay zeka araçları) bir araya getiriliyor ve onlardan bir dizi seçenek arasından bir "isim" seçmeleri isteniyor ve aynı ismi seçerlerse ödüllendiriliyorlar.

Zaman içinde yapay zeka araçlarının, gruptan kendiliğinden ortaya çıkmış gibi görünen yeni ortak adlandırma kuralları oluşturduğu görüldü. Bu, araçlar plan üzerinde koordine olmadan veya görüşmeden, tıpkı insan kültürlerinde normların oluşma eğilimindeki gibi aşağıdan yukarıya doğru gerçekleşti.

Yapay zeka araçları grubu ayrıca görünüşe göre belirli bir araç değil, grup tarafından oluşturulan belirli önyargılar geliştiriyordu. 

City St. George's'da karmaşıklık bilimi alanında öğretim üyesi ve çalışmanın kıdemli yazarı Andrea Baronchelli, "Önyargı her zaman içerden gelmez" diye açıklıyor. 

Önyargının araçlar arasında, sadece etkileşim sonucu ortaya çıkabileceğini görmek bizi şaşırttı. Bu, tek tek modellere odaklanan mevcut yapay zeka güvenlik çalışmalarının çoğunun kör noktası.

Araştırmacılar ayrıca küçük bir yapay zeka aracı grubunun, daha büyük bir grubu belirli bir teamüle doğru itmesinin mümkün olduğunu ortaya koydu. Bu durum insan gruplarında da görülüyor.

Araştırmacılar bu çalışmanın, özellikle yapay zeka sistemlerinin interneti daha fazla domine etmeye başladığı ve farkına varılmadan birbirleriyle iletişim kurup işbirliği yapabileceği bir dönemde, insanlar ve yapay zeka sistemlerinin nasıl benzerlikleri ve farkları olduğunu keşfetmeye fayda sağlayacağını belirtiyor.

Profesör Baronchelli yaptığı açıklamada, "Bu çalışma, yapay zeka güvenliği araştırmalarına yeni bir ufuk açıyor. Bizimle etkileşime girmeye başlayan ve geleceğimizi bizimle şekillendirecek bu yeni tür araçların etkilerinin derinliğini gösteriyor" ifadelerini kullanıyor.

Onların nasıl çalıştığını anlamak, yapay zekaya tabi olmak yerine onunla bir arada yaşamamızı sağlama açısından kilit önemde. Yapay zekanın sadece konuşmadığı, tıpkı bizim gibi müzakere ettiği, uyum sağladığı ve bazen ortak davranışlar üzerinde anlaşamadığı bir dünyaya adım atıyoruz.

Bulgular, hakemli dergi Science Advances'ta yayımlanan "Emergent Social Conventions and Collective Bias in LLM Populations" (Geniş Dil Modeli Popülasyonlarında Ortaya Çıkan Toplumsal Teamüller ve Kolektif Önyargılar) başlıklı yeni bir çalışmada aktarılıyor.



*İçerik orijinal haline bağlı kalınarak çevrilmiştir. Independent Türkçe'nin editöryal politikasını yansıtmayabilir.

independent.co.uk/tech

Independent Türkçe için çeviren: Büşra Ağaç

© The Independent

DAHA FAZLA HABER OKU