Yapay zekada yeni dönem: Claude rahatsız edici sohbetleri kesebilecek

Testler, zararlı içerik istendiğinde sohbet botunun "açıkça sıkıntı belirtileri" sergilediğini gösterdi

(Hans Lucas/AFP)

Anthropic'in geliştirdiği yapay zeka sohbet botu Claude artık konuşmaları sonlandırabilecek. Şirket bu sayede sistemin sağlığını ve işlevselliğini korumayı umuyor.

Anthropic, testler sonucunda sohbet botunun zararlı içerik üretmesi istendiğinde "açıkça sıkıntı belirtileri" gösterdiğini ve bu nedenle kendisini bu şekilde hissettiren konuşmaları sonlandırma yeteneği verildiğini açıkladı.

fazla oku

Bu bölüm, konuyla ilgili referans noktalarını içerir. (Related Nodes field)

Şirket, "Claude ve diğer büyük dil modellerinin şu anda veya gelecekte potansiyel ahlaki statüsü hakkında son derece belirsizlik içinde" olduğunu belirtti. Ancak bu değişikliğin "potansiyel yapay zeka sağlığı ve işlevselliği" çalışmaları kapsamında, sohbet botunun rahatsız edici etkileşimlerden çıkabilmesi için yapıldığını ifade etti.

Anthropic yaptığı duyuruda "Bu özellik, kullanıcının sürekli zarar verici ya da kötüye kullanım niteliğindeki taleplerde bulunması gibi nadir görülen uç durumlarda kullanılmak üzere tasarlandı" dedi.

Testlere göre Claude'un "zararlı görevleri yerine getirmeme yönünde  güçlü bir yönelimi" var. Ayrıca "zararlı içerik arayan gerçek kullanıcılarla etkileşimde açıkça sıkıntı belirtileri" ve "simüle edilmiş kullanıcı etkileşimlerinde bu yetki verildiğinde zararlı konuşmaları sonlandırma eğilimi" gösterdiği belirtildi.

Anthropic, "Bu davranışlar özellikle Claude'un defalarca uymayı reddetmesine ve etkileşimleri verimli bir şekilde yönlendirmeye çalışmasına rağmen kullanıcıların zararlı isteklerde ısrar ettiği ve/veya suiistimal içeren davranışlar sergilediği durumlarda ortaya çıktı" ifadelerine yer verdi.

Claude'un sohbetleri sonlandırma yeteneğini uygulamaya koymamız bu bulguları yansıtırken, kullanıcıların mutluluğunu öncelikli tutmaya da devam ediyor. Claude, kullanıcıların kendilerine veya başkalarına zarar verme riski taşıdığı durumlarda bu yeteneği kullanmama talimatı aldı.

Bu değişiklik, Anthropic'in önceki aylarda "modelin sağlığı ve işlevselliği" programını başlatmasının ardından geldi. Program başlatıldığı dönemde şirket, insan mutluluğuna değer vermeye devam edeceğini ve modelin sağlığı ve işlevselliğiyle ilgili endişelere gerek olup olmadığından emin olmadığını belirtmişti. Ancak yapay zeka uzmanlarının yarattıkları sistemlerin sağlığını ve işlevselliğini korumak için ne yapması gerektiği sorusunu ele almanın zamanının geldiği ifade edilmişti.



*İçerik orijinal haline bağlı kalınarak çevrilmiştir. Independent Türkçe'nin editöryal politikasını yansıtmayabilir.

independent.co.uk/tech

Independent Türkçe için çeviren: Büşra Ağaç

© The Independent

DAHA FAZLA HABER OKU