Deepfake porno dünyası: Uydurma videolar, kadınlara zarar vermek için nasıl kullanılıyor?

"Deepfake videolara koymak için röportajlarımı kullanmaya başladılar"

Akademisyen Sophie Maddocks, deepfake teknolojisinin kötüye kullanımıyla ilgili yaptırımların yasalaşması gerektiğini savunuyor (Reuters)

Deepfake teknolojisine erişimin giderek kolaylaşmasıyla sahte videolar hazırlayarak bireyleri cinsel istismara uğratmak da yaygınlaştı. Özellikle kadınlar deepfake'le, fotoğrafları kullanılarak pornografik görüntülere yerleştiriliyor. Sanal alemde yayımlanan bu görüntüler, mağdurların hayatlarını epey zorlaştırıyor.

fazla oku

Bu bölüm, konuyla ilgili referans noktalarını içerir. (Related Nodes field)

Deepfake, bir fotoğraf ya da videodaki görüntünün yapay zeka ve derin öğrenme (bilgisayarları eğitmek için kullanılan algoritmik öğrenme metodu) kullanılarak değiştirildiği teknolojiye deniyor.

Pek çok ünlünün görüntüsüyle bu teknolojiyle oynanıyor ve sahte videolar ortaya çıkıyor. Örneğin ünlü şarkıcı Justin Bieber, Hollywood yıldızı Tom Cruise'u gitar çalarken gösteren deepfake videoya geçen sene inanmıştı.

Bieber, gitarı tıngırdatanın Hollywood yıldızı olduğunu düşündüğü videodan "etkilendiğini" söylemişti.

5 yılda deepfake teknoloji için gereken uygulamaların ücretsiz hale gelmesi ya da ucuzlamasıyla, sahte pornografik görüntüler de arttı.

Örneğin Birleşik Krallık'ın başkenti Londra'da yaşayan Kate Isaacs, 2020'nin sonlarında dünyanın en büyük porno sitesi Pornhub'dan zararlı, yasadışı veya rıza olmadan paylaşılan videoların kaldırılması için çabalayan bir kampanyanın parçasıydı.

Çabaları sonucuna milyonlarca videonun silinmesini sağlayan Isaacs, bir yandan da sosyal medyada hedef haline geldi.
 


Isaacs, "Görüntüye dayalı cinsel istismar mağdurları bir zafer kazandı. Ancak internetteki erkeklerin küçük bir azınlığı aynı fikirde değildi. Bu beni bir hedef haline getirdi" diye konuştu.

Mağdur bir süre sonra fotoğraflarından yüzünün alınarak pornografik görsellere yerleştirildiğini ve sosyal medyada paylaşıldığını tespit etti:

Bunun ardından deepfake videolara koymak için röportajlarımı kullanmaya başladılar. Porno videom olduğu, bundan utandığım için pornodan kurtulmak istediğimi söyleyen tweetler vardı. Birçok insan bu hikayeye inandı.

Mağdur, bunun ardından yalnız kalmak istemediğini, eve karanlıkta yürümekten dahi korktuğunu belirtti. "Bu aslında beni susturmakla ilgiliydi" diyen Isaacs, saldırının ardından Twitter hesabını kapattığını belirtti.

"Herkes buna inanmış gibiydi"

Kuzey İrlandalı politikacı Cara Hunter, mayısta yapılan seçimlerde meclise seçilmeden birkaç hafta önce sahte pornonun hedefi oldu. 26 yaşındaki Hunter, kendisini oral seks yapıyormuş gibi gösteren bir videonun internette dolaştığını gördü:

Ailecek parti yapıyorduk. Büyükannemin 90. doğum günüydü. Etrafım ailemle çevriliydi ve telefonum ötüp duruyordu. Sonraki birkaç hafta boyunca da böyle devam etti.

Kendisine çok benzeyen bir porno yıldızı olduğunu öğrenen genç siyasetçi, videonun deepfake olup olmadığından emin değil. Ancak yine de videodaki kişinin kendisini olduğunu söyleyen paylaşım sosyal medyada sıkça paylaşıldı.

Hunter, video dolaşıma girdikten iki gün sonra başına gelen olayı şöyle anlattı:

Tek başıma yürürken bir adam beni sokakta durdurdu ve oral seks yapmamı istedi. Videoyu açtı. Korkunçtu. Herkes buna inanmış gibiydi.

Seçim arifesinde olduğu için sosyal medyayı da terk edemeyen siyasetçi, polise gittiğini ancak bir sonuç alamadığını belitti.

Britanya gazetesi iNews de Birleşik Krallık kanunlarının deepfake videolarla ilgili yetersiz kaldığının altını çizdi.

Deepfake teknolojisi, siyasi figürleri itibarsızlaştırmak için veya sahte mesajlar vermek için de kullanılıyor.

ABD'deki Pensilvanya Üniversitesi'nde siber alemde insan hakları ve medya okuryazarlığı üzerine çalışmalar yapan Sophie Maddocks, politikadaki deepfake videolar üzerine daha çoık odaklanıldığını ve cinsel şiddetin gözden kaçırıldığını düşündüğünü söyledi.

"Kadınlara yönelik cinsel şiddet, medyada veya siyasette olmasını istediğimiz kadar ciddiye alınmıyor" diyen akademisyen, deepfake videoların çoğunun pornografik olduğunu vurguladı.

Maddocks, deepfake için sadece bir fotoğrafın gerektiğini belirterek herkesin mağdur olabileceğine işaret etti.

 

Independent Türkçe, iNews

Derleyen: Uğurcan Yıldız

DAHA FAZLA HABER OKU