Ürkütücü yapay zeka deneyinde eğitimli kişiler bile kandırıldı

Sahte yüzler daha güvenilir bulundu, araştırmacılar "Endişelenmeliyiz" dedi

Araştırmanın bulguları, deepfake gibi yaygın teknolojilere dair endişe uyandırdı (Reuters)

Yeni bir araştırma yapay zekanın gerçekçi insan yüzleri oluşturmada ne denli ilerlediğini gözler önüne serdi.

Birleşik Krallık'taki Lancaster Üniversitesi ve ABD'deki Kaliforniya Üniversitesi, Berkeley'den araştırmacılar, yapay zekanın tasarladığı insan yüzlerinden bir deney tasarladı.

Katılımcıların, bunları gerçek insan yüzlerinden ayırt edemediği ve hatta daha güvenilir buldukları ortaya kondu.

Hakemli bilimsel dergi PNAS'ta yayımlanan araştırmanın yazarlarından Sophie Nightingale şu açıklamalarda bulundu:

Endişelenmeliyiz çünkü bu sentetik yüzler, örneğin intikam pornosu veya dolandırıcılık gibi kötü amaçlar için son derecede etkili.

Nvidia'nın yapay zekası eğitimli insanları da kandırıyor

Çalışmada ABD merkezli teknoloji debi Nvidia'nın ürettiği StyleGAN2 adlı yapay zeka programı tarafından oluşturulan sahte yüzler kullanıldı.

fazla oku

Bu bölüm, konuyla ilgili referans noktalarını içerir. (Related Nodes field)

Bu tür yapay zeka programlarına üretken düşman ağlar (GAN) adı veriliyor. Bunlar gerçek görüntülerden gittikçe daha zor az ayırt edilebilen sahte görüntüler oluşturmayı makine öğrenimi yoluyla kavrıyor.

Yeni araştırmada 315 katılımcıdan 128 görüntü arasından gerçek ve sahte olanları ayırt etmeleri istendi. Katılımcıların doğru cevapları verme olasılığı yüzde 48 çıktı.

Bu sırada 219 kişilik ikinci bir gruba bilgisayarda oluşturulan yüzleri tanıma eğitimi verildi. Bu grubun doğru tahmin oranı ise yüzde 59'du. Ancak bu farkın ihmal edilebilir olduğunu söyledi. Yani yapay zeka eğitimli ve eğitimsiz insanları hemen hemen aynı oranlarda kandırmayı başarıyordu.

Sahte yüzleri daha güvenilir buldular

Deneyde üçüncü bir gruba daha yer verildi. Bu gruptan da 128 yüzün güvenilirliğini 1 (çok güvenilmez) ve 7 (çok güvenilir) arasında derecelendirmeleri talep edildi.

Sahte yüzlere verilen ortalama güven puanı, gerçek yüzlere verilenlerden yüzde 8 daha fazlaydı. Araştırmacılar bunun küçük ama "istatistiksel açıdan anlamlı" bir fark olduğunu ifade etti.

Fotoğraflar toplamda 800 yüzün bulunduğu bir katalogdan seçilmişti. Bunlardan 400'ü sahte, 400'ü ise gerçek fotoğraflardı ve görüntülerde beyaz, siyah, Doğu Asyalı ve Güney Asyalı 100'er kişiye yer verilmişti.

Araştırmacılara göre siyah yüzler, Güney Asyalı yüzlerden daha güvenilir bulunmuştu. Ancak bunun dışında ırklar arasında herhangi bir farklılık tespit edilmedi.

 

 

Deepfake teknolojisinin risklerine dikkat çekiyor

Makalede, "Yapay zekayla sentezlenen yüzlerin gerçekliğine ilişkin değerlendirmemiz, bunların gerçek yüzlerden ayırt edilemez ve daha güvenilir yüzler yaratabildiğini gösteriyor" ifadeleri yer aldı.

Bulgular, hemen hemen herkesin aldatıcı hareketsiz görüntüler oluşturmasını mümkün kılan teknolojinin erişilebilirliğine dair endişeleri artırıyor.

Nightingale, "Herkes Photoshop veya CGI konusunda özel bilgisi olmadan sentetikler içerik oluşturabiliyor" diyor.

Özellikle "deepfake" teknolojisinin dolandırıcılık amaçlı kullanımına dikkat çekiliyor. Mevcut bir görüntü veya videoda yer alan bir kişinin yüzünün yapay sinir ağlarıyla bir başka kişinin görüntüsüyle değiştirildiği içeriklere deepfake adı veriliyor.

Araştırmacılar deepfake görüntülerinin internet ortamında dolaşmasının kontrol edilmesi için güvenlik önlemleri talep ediyor.

Deepfake'ler intikam pornoları, dolandırıcılık ve propaganda için kullanılıyor ve sahte haberlerin yayılmasına yol açabiliyor.

Bu teknoloji son günlerde Fransız film yapımcısı Yzabel Dzisky'nin bir flört uygulamasında kendini "Türk cerrah Murat" diye tanıtan bir Nijeryalı tarafından dolandırılmasıyla gündeme gelmişti.

BBC Türkçe'nin haberine göre dolandırıcı Yzabel'le görüntülü konuşurken deepfake teknolojisini kullanarak güven kazanmış ve kadından 200 euro almıştı.

 

Independent Türkçe, Scientific American, New Scientist, Daily Mail

Derleyen: Çağla Üren

DAHA FAZLA HABER OKU