Yapay zeka, çocuk kaçırma dolandırıcılığı için kullanıldı

Annesi, "O olduğundan bir an bile şüphe etmedim" diyor

Jennifer DeStefano (sağda), kızı Brie'den geldiğini düşündüğü endişe verici bir telefon aldı (Jennifer DeStefano/Facebook)

Bir anne, dolandırıcıların sahte bir kaçırma girişiminde kullandıkları, kızının sesinin yapay zeka tarafından oluşturulan kopyasına "yüzde 100" inandığını söyledi.

Arizonalı Jennifer DeStefano, bilinmeyen bir numaradan gelen telefonu açtı ve 15 yaşındaki kızı Brie olduğuna inandığı kişinin "hıçkıra hıçkıra ağladığını" duydu.

fazla oku

Bu bölüm, konuyla ilgili referans noktalarını içerir. (Related Nodes field)

Hattın diğer ucundaki ses "Anne, her şeyi berbat ettim" dedikten sonra bir erkek sesi devreye girerek tehditkar taleplerde bulundu.

Yerel haber kanalı WKYT'ye konuşan DeStefano, "Bu adam telefona çıktı ve 'Dinle beni, kızın elimde' gibi şeyler söyledi" diye belirtti.

Çocuğu kaçırmış gibi yapan kişi anneye, "Polisi ararsan, herhangi birini ararsan, onu uyuşturucuya boğacağım, onunla işimi göreceğim ve onu Meksika'ya bırakacağım" dedi.

DeStefano, arkadan kızının "Yardım et anne, lütfen yardım et" dediğini ve ağladığını duyabildiğini söyledi.

DeStefano, "Yüzde 100 onun sesiydi" dedi.

Hiç bu kim diye düşünmedim. Tamamen onun sesiydi, onun tonlamasıydı, onun ağlama şekliydi; o olduğundan bir an bile şüphe etmedim. Beni gerçekten derinden etkileyen tuhaf kısım buydu.

Çocuğu kaçırmış gibi yapan kişi, kızı serbest bırakmak için önce 1 milyon dolar talep etti, daha sonra bu rakamı 50 bin dolara indirdi. DeStefano, kızının kaçırılmadığını ancak bir arkadaşı eşini arayıp güvende olduğunu teyit edince anladı.

Polisin halen soruşturduğu dolandırıcı, yapay zeka ses kopyalama teknolojisini kullanıyor gibi görünüyor. Bu teknoloji son yıllarda insanların seslerini taklit etmekte giderek daha başarılı hale geliyor.

Ayrıca internette ücretsiz olarak bulunan yapay zeka araçlarına erişmek ve kullanmak da nispeten kolay.

Yapay zeka tarafından üretilen sesler, Star Wars serisinde orijinal Darth Vader karakterini seslendiren James Earl Jones gibi oyuncuları taklit etmek için filmlerde halihazırda kullanılıyor.

Ayrıca, yazarların stüdyoda saatlerini harcayıp eserlerini okumadan sesli kitap üretmelerinin bir yolu olarak da tanıtılıyor.

Bu teknoloji aynı zamanda dolandırıcılar ya da deepfake videolar yaratmaya çalışan kişiler tarafından kötüye kullanılabileceği korkusunu da beraberinde getirdi ve bir ses klonlama girişimi, bu teknolojinin "yanlış ellerde zararlı olabileceği" uyarısında bulundu.

Respeecher firması, geçen yıl yaptığı bir basın açıklamasında "Deepfake teknolojilerinin yaygın şekilde ilgi görmesi ve benimsenmesi, bu teknolojinin kullanımının düzenlenmesi ihtiyacını hızlandıracak" ifadelerini kullandı.



*İçerik orijinal haline bağlı kalınarak çevrilmiştir. Independent Türkçe’nin editöryal politikasını yansıtmayabilir.

https://www.independent.co.uk/tech

Independent Türkçe için çeviren: İpek Uyar

© The Independent

DAHA FAZLA HABER OKU