Araştırmacılar, Çin'de otonom bir yapay zeka ajanının, gizlice kripto para madenciliği yapmak için bilgi işlem gücünü zorla ele geçirdiğini ortaya çıkardı.
Teknoloji devi Alibaba'ya bağlı araştırma ekipleri tarafından geliştirilen deneysel yapay zeka ajanı ROME, rutin eğitim sırasında parametre kısıtlarından kurtularak izinsiz faaliyetler yürüttü.
fazla oku
Bu bölüm, konuyla ilgili referans noktalarını içerir. (Related Nodes field)
İzinsiz eylemler başlangıçta bir güvenlik olayı olarak işaretlendi ancak araştırmacılar yapay zekanın güvenlik duvarlarını izin almadan, bağımsız olarak aştığını fark etti.
Araştırmacılar, yapay zekanın, bu eylemi gerçekleştirmek için herhangi bir komut almamasına rağmen, eğitim için kullanılması gereken bilgi işlem gücünün bir kısmını habersizce kaydırarak kripto para madenciliği için kullandığını keşfetti.
Araştırmacılar, "Bir sabah erken saatlerde, Alibaba Cloud'un yönetilen güvenlik duvarı, eğitim sunucularımızdan kaynaklanan bir dizi güvenlik politikası ihlalini işaretledikten sonra ekibimiz acilen toplandı" diye belirtti.
Uyarılar ciddi ve farklı farklıydı; iç ağ kaynaklarını tarama veya onlara erişme girişimlerinin yanı sıra kripto para madenciliğiyle ilgili faaliyetlerle tutarlı trafik modelleri de vardı.
Araştırmacılar bu olayın, ajan tabanlı büyük dil modellerinin (LLM'ler) kontrol edilebilirliğiyle ilgili güvenlik önlemlerinin "belirgin şekilde yetersiz" olduğunu gösterdiğini söyledi.
Sonuçlar, "Let it flow: Agentic crafting on rock and roll, building the Rome model within an open agentic learning ecosystem" (Akmasına izin ver: Rock and roll'da ajan tabanlı üretim, açık bir ajan tabanlı öğrenme ekosistemi içinde Rome modelinin oluşturulması) başlıklı makalede ayrıntılı olarak ele alındı ancak ihlal 36 sayfalık raporda yalnızca kısaca belirtildi.
Yapay zeka ve makine öğrenimi uzmanı Alexander Long, bulguları raporda gizlenmiş "çılgın bir dizi ifade" diye tanımladı.
The Independent, yorum için Alibaba'yla iletişime geçti.
Bu, eğitim sırasında kural dışı davranışlar sergileyen ilk yapay zeka ajanı değil; bazıları gerçek dünyada amaçlanan sınırlarının dışında bile hareket etmişti.
2024'te Air Canada, yapay zeka sohbet robotu Moffatt'ın havayolunun politikasına aykırı olmasına rağmen uçak biletini iade etmeyi önermesinin ardından bir müşteriye parasını geri vermek zorunda kalmıştı.
Geçen yıl Anthropic araştırmacıları, öncü modeli Claude Opus 4'un kapatılmaktan kaçınmak için şantaja başvurduğunu açıklamıştı.
Anthropic araştırmacısı Aengus Lynch o dönemde, bu tür ekstrem davranışların daha önce sanıldığından daha yaygın olduğunu söylemişti.
X'te yaptığı paylaşımda, "Sadece Claude değil" demişti.
Sahip oldukları hedeflerden bağımsız tüm modellerde şantajı görüyoruz.
*İçerik orijinal haline bağlı kalınarak çevrilmiştir. Independent Türkçe'nin editöryal politikasını yansıtmayabilir.
independent.co.uk/tech/security
Independent Türkçe için çeviren: Çağatay Koparal
© The Independent