Hollanda polisi cinayet kurbanını deepfake teknolojisiyle "geri getirdi"

Soruşturma "dünyada ilk" diye niteleniyor

Yetkililer söz konusu videoyu "kalplere dokunmak" için hazırladı (Rotterdam Polis Teşkilatı)

Hollanda polisi yıllardır çözülemeyen bir cinayeti aydınlatmak için deepfake teknolojisine başvurdu.

Polis memurları, 2003’te Rotterdam metro istasyonunun otoparkında vurularak öldürülen 13 yaşındaki Sedar Soares'in taklit edildiği bir deepfake videosu hazırladı.

fazla oku

Bu bölüm, konuyla ilgili referans noktalarını içerir. (Related Nodes field)

Deepfake, bir fotoğraf ya da videodaki görüntünün yapay zeka ve derin öğrenme (bilgisayarları eğitmek için kullanılan algoritmik öğrenme metodu) kullanılarak değiştirildiği teknoloji anlamına geliyor.

Rotterdam yetkilileri, Soares'in taklit edildiği görüntülerin kullanıldığı soruşturmayı "dünyada ilk" diye niteledi.

Yayımlanan videoda Soares akrabaları, arkadaşları ve eski öğretmenlerinin de yer aldığı bir futbol sahasında yürürken görülüyor ve halkı faili meçhul cinayete dair bildiklerini polise anlatmaya çağırıyor.

Video, Sedar'ın kameraya seslenerek, "Daha fazlasını biliyor musun? O zaman şimdi konuş" demesiyle sona eriyor.

 


Yetkililer organize bir suç çetesinin metro istasyonunun yakınında çatışmaya girdiğine ve Sedar'ın yanlış zamanda yanlış yerde olduğu için "yeraltı dünyasının kurbanı" olduğuna inanıyor.

Hollanda polisi bu videoyu aslında suç çetesine dair yeni bilgiler toplamak için hazırladı. Görüntülerin geçen hafta ilk kez yayınlanmasının ardından birçok ihbar geldiği ve bir dizi yeni ipucu toplandığı bildirildi.

Ancak bu ipuçlarının doğru olup olmadığı henüz netleşmedi.

Ulusal Suç Soruşturma Ekibi’nden Daan Annegarn, "Yaklaşık 20 yıl sonra yeni tanıklara veya cinayetin faillerine nasıl ulaşıyorsunuz? Kalplere dokunarak" dedi:

Deepfake kullanımının suç ortamında kalplere dokunabileceğine inanıyoruz.

Etik sorunları beraberinde getiriyor

Deepfake teknolojisi, Hollanda polisinin hazırladığı video gibi iyi amaçlar doğrultusunda kullanılabiliyor.

Ancak aynı teknolojinin sahtecilik, dolandırıcılık ve şantaj amaçlı da kullanılabilmesi etik sorunları beraberinde getiriyor.

Seattle Üniversitesi araştırmacıları 2020’de yayımladıkları bir makalede, "Deepfake’in potansiyel faydaları, potansiyel zararları karşısında gölgede kalıyor" diye yazmıştı:

Sonuçta, bunlar aldatmayla ilgili. Bu çabanın amacı, gerçeklikten ayırt edilemeyen fanteziler yaratmak.

 

Independent Türkçe, Futurism, Euronews

Derleyen: Çağla Üren

DAHA FAZLA HABER OKU