Bir felaketten sonra yapay zekâya güvenebilir miyiz?

Afet sonrası hasar tespitinde 'Kara Kutu'yu açan yeni yapay zekâ modeli...

Deprem, sel ve kasırga gibi büyük afetlerin ardından en hayati sorulardan biri, hangi binanın ne kadar hasar gördüğünün hızla belirlenmesi. Son yıllarda bu süreçte uydu görüntülerini analiz eden yapay zekâ sistemleri giderek daha fazla kullanılıyor. Ancak bu sistemlerin verdiği kararların ne kadar güvenilir olduğu ve hangi gerekçelere dayandığı uzun süredir tartışma konusu.

International Journal of Disaster Risk Reduction’da yayımlanan yeni bir çalışma, bu tartışmaya önemli bir yanıt veriyor. Çalışma, yapay zekanın yalnızca uydu görüntülerinden bina hasarını tespit ederken aynı zamanda bu kararları hangi gerekçelere dayanarak verdiğini de ortaya koyan, açıklanabilir yapay zekâ (XAI) temelli kapsamlı bir çerçeve sunduğunu gösteriyor.

Yanlış yapılan bir hasar tespiti, enkaz altındaki bir kişiye saatlerce geç ulaşılması anlamına gelebiliyor. Bu nedenle araştırmacılar, yalnızca “doğru” görünen sonuçlara değil, bu sonuçların nasıl üretildiğine odaklandı.

Afet sonrası bina hasarını tespit eden yapay zekâ modelleri arasında, hangilerinin gerçekten güvenilir olduğu sistematik olarak gösterildi. Bilim insanları hasar tespitinde daha güvenilir modeller geliştirdi. Araştırma, sahada kullanılabilecek modellerin yalnızca hız ve doğrulukla değil, şeffaflık ve güvenilirlikle de değerlendirilmesi gerektiğini ortaya koydu.

Araştırmayı yürüten University College London Risk ve Afet Azaltımı Bölümü’nden Dr. Umut Lagap, “Büyük afetlerden sonra bazen binlerce, hatta yüz binlerce binadan söz ediyoruz. Bu kadar geniş bir alanı insan gücüyle, sahaya tek tek giderek hızlı ve güvenli biçimde değerlendirmek çoğu zaman mümkün olmuyor. Bazı bölgeler erişilemez ya da ekipler için tehlikeli olabiliyor. Uydu görüntüleri bu noktada büyük bir avantaj sağlıyor; ancak bu kadar büyük veriyi hızlı analiz edebilmek için yapay zekaya ihtiyaç duyuyoruz" dedi. 

 

Uydu görüntülerinden bina bina analiz

Araştırmada, gerçek kasırga verilerine ait yüksek çözünürlüklü uydu görüntüleri kullanıldı. Afet sonrası müdahalede hız ile doğruluk arasındaki dengeyi güçlendirirken, “kara kutu” eleştirilerine yanıt vererek yapay zekânın kriz yönetiminde daha şeffaf ve hesap verebilir biçimde kullanılmasının önünü açıyor.

Afet öncesi ve sonrası görüntüler karşılaştırılarak her bir bina dört sınıfta değerlendirildi: hasarsız, hafif hasarlı, ağır hasarlı ve tamamen yıkılmış. 

Yapay zeka modelleri bu sınıflandırmayı otomatik olarak yaptı. Ancak araştırmacılar, sadece sonuçlara bakmakla yetinmedi.  Lagap’a göre, yüksek doğruluk oranı tek başına yeterli değil:

Bir model bir afette şans eseri doğru sonuçlar verebilir. Ancak bir sonraki afette yanlış bölgelere odaklanırsa, bu hem sınırlı kaynakların yanlış kullanılmasına hem de can kayıplarına yol açabilecek kadar tehlikeli sonuçlar doğurur.

32 farklı model karşılaştırıldı

Çalışma kapsamında 8 farklı derin öğrenme mimarisi ele alındı. Bu modellere üç farklı “dikkat mekanizması” eklendi ve toplamda 32 farklı yapay zeka modeli test edildi. Amaç, hangi yaklaşımın hem daha doğru hem de daha güvenilir sonuç verdiğini görmekti.

Bu çalışma, yapay zekanın afet sonrası hasar tespitinde ne zaman işe yaradığını ve ne zaman durdurulması gerektiğini ilk kez bu kadar net gösterdi.

Ardından modellerin karar süreçleri, açıklanabilir yapay zekâ (XAI) yöntemleriyle incelendi. Grad-CAM ve Saliency Map adı verilen teknikler sayesinde, yapay zekanın görüntünün hangi bölümüne odaklanarak karar verdiği görselleştirildi.

Lagap, bu süreci şöyle anlattı:

Biz bu modelleri, sahada uydu görüntülerini kullanan bir uzmanın bakış açısıyla değerlendirdik. Yani model sadece doğru tahmin yapıyor mu değil, bu tahmini gerçekten mantıklı ve ikna edici gerekçelere dayanarak mı yapıyor, buna baktık.

Kritik bulgu: Her doğru karar güvenilir değil

Araştırma, çarpıcı bir gerçeği ortaya koydu: Bazı modeller doğru sonucu verse bile, hasarlı bina yerine alakasız alanlara odaklanabiliyor. Bu durum, yapay zekânın sahada yanlış yönlendirme yapma riskini gözler önüne seriyor.

Özellikle çok başlı dikkat (multihead attention) kullanan modellerin ise, ağır hasar ve yıkılmış binaları daha doğru ayırt ettiği ve gerçekten hasarlı bölgelere odaklandığı tespit edildi.

Araştırmaya göre bu modeller, ağır hasarlı ve tamamen yıkılmış binaları daha az “hafife alma” eğilimi gösteriyor. Bu da afet sonrası önceliklendirmede daha doğru kararlar anlamına geliyor.

Lagap, “Amacımız, yapay zekânın tek başına karar vermesi değil; insanlarla birlikte, onları destekleyici biçimde çalışması. Karar verici, modelin neden o sonuca vardığını görebildiğinde, hem modeli denetleyebiliyor hem de gerektiğinde müdahale edebiliyor” dedi.

Neden önemli?

Ağır hasarlı ve tamamen yıkılmış binalar, arama-kurtarma ve yardım planlamasında en kritik kategoriler. Bu sınıflardaki hatalar, müdahalenin gecikmesine ve kaynakların yanlış kullanılmasına yol açabiliyor.

Araştırmaya göre, açıklanabilir ve güvenilir olmayan yapay zekâ sistemleri, hasarın boyutunu olduğundan küçük gösterme eğiliminde olabiliyor.

Lagap, “Yapay zekâ tek başına karar verici olmamalı. Afet yönetimi çok boyutlu bir süreç; sosyal, etik ve yönetsel boyutları var. En güvenli yaklaşım, yapay zekâ ile insan uzmanların birbirini tamamladığı bir sistem kurmak” dedi.

Türkiye’de durum ne?

Uydu temelli hasar tespitinin belirli ülkelerle sınırlı olmadığını, uydu verisine erişimi olan her ülkenin bu sistemleri kullanabileceğini belirten Lagap, “Uydu görüntülerinin en büyük avantajı, coğrafi olarak bir ülkeyle sınırlı olmaması. Veri varsa, bu modeller dünyanın her yerinde uygulanabilir” diye konuştu.

Türkiye’de de yapay zeka ve derin öğrenme temelli hasar tespit uygulamalarının kullanıldığı alanlar bulunduğunu belirten Lagap, asıl kritik noktanın hangi modelin ne kadar şeffaf olduğu olduğunu vurguladı.

“Bir model yüzde 95 doğruluk oranına sahip olabilir. Ancak bu kararları doğru gerekçelerle mi veriyor, yoksa tesadüfen mi? Bizim odaklandığımız asıl mesele bu” diyen Lagap’a göre, özellikle 6 Şubat depremleri gibi büyük afetlerde bu tür şeffaf ve güvenilir modellerin yaygın kullanımı, kaynakların daha doğru yönlendirilmesine ve müdahale süreçlerinin hızlanmasına katkı sağlayabilir.

Lagap, Türkiye gibi deprem riski yüksek ülkelerde bu sistemlerin yalnızca afet anında değil, yeniden yapılanma ve uzun vadeli izleme süreçlerinde de kullanılabileceğini belirtti.

Mesaj net: Hız yetmez, şeffaflık şart

Çalışma, yapay zekânın afet yönetiminde tamamen dışlanması gerektiğini söylemiyor. Aksine, insan uzmanları destekleyen, kararları şeffaf biçimde açıklayabilen sistemlerin önemine dikkat çekiyor.

Araştırmacılara göre, yapay zekaya güvenebilmenin yolu, onun nasıl düşündüğünü anlayabilmekten geçiyor.

Lagap, “Karar vericiler bu modellere ancak güvenebilirlerse kullanacak. Bizim hedefimiz, hızlı ama aynı zamanda şeffaf ve güvenilir modellerle bu güveni oluşturmak. Bu sağlandığında, yapay zekâ afet yönetiminde hem hayat kurtaran hem de kaynakları daha etkin kullanan bir araç hâline gelebilir" ifadelerini kullanıyor. 

Araştırmacılar, bu sistemlerin sahada tek başına karar verici olarak kullanılmaması, insan uzmanlarla birlikte değerlendirilmesi gerektiğinin altını çiziyor.

 

*Bu içerik serbest gazeteci veya konuk yazarlar tarafından hazırlanmıştır. Bu içerikte yer alan görüş ve ifadeler yazara aittir ve Independent Türkçe'nin editöryal politikasını yansıtmayabilir.

© The Independentturkish

DAHA FAZLA HABER OKU