İsrail ordusu, Gazze saldırılarında yapay zeka kullanıyor
Gazze'deki siviller, yapay zeka destekli saldırının hedefi oldu. Şüpheli olarak işaretlenen 37 bin Filistinlinin her birinin ölümü için, 20 sivil kaybına göz yumuldu.
Gazze'ye ölüm yağdıran İsrail'in, yapay zeka uygulamasına başvurduğu ortaya çıktı.
Hedef belirlemek üzere yapay zekayı devreye alan İsrail ordusu, bir insanın ölümü için 20 sivil kaybı göze aldı.
Tel Aviv merkezli "+972" ve Local Call'a konuşan kaynaklar, Lavender programının Gazze'deki yaklaşık 2,3 milyon insan hakkında topladığı verileri belirsiz kriterlere göre analiz ederek, kişinin Hamas ile bağlantısı bulunma olasılığını değerlendirdiğini belirtti.
Görüşlerini paylaşan 6 kaynak, savaşın özellikle ilk safhalarında İsrail ordusunun programa "tamamen bağlı kaldığını", bu nedenle Lavender'in tespit ettiği isimlerin, erkek oldukları sürece personel tarafından kontrolsüz ve belirli bir kriter gözetilmeksizin hedef olarak görüldüğünü aktardı.
37 bin Filistinli şüpheli olarak işaretlendi
+972'ye konuşan kaynaklar, binada ve çevrede siviller olsa bile kişinin özel mülkiyetinde öldürülmesine izin veren "insan hedef" kavramının daha önce yalnızca "üst düzey askeri hedef"leri kapsadığını, 7 Ekim sonrasında "insani hedef" görülenlerin, tüm Hamas üyelerini kapsayacak şekilde genişletildiğini ifade etti.
Hedef sayısının artması sonucunda, öncekinin aksine hedeflerin tek tek insanlar tarafından incelenip doğrulanması olasılığı ortadan kalktığı için yapay zekaya ihtiyaç duyulduğu kaydedilirken, yapay zekanın yaklaşık 37 bin Filistinliyi "şüpheli" olarak işaretlediği belirtildi.
"Hedefleri tek tek kontrol etmedik"
Lavender'ın Filistinlileri sınıflandırmada "yüzde 90'a kadar başarılı" görülmesi üzerine, sürecin tamamen otomasyona bağlandığını söyleyen kaynaklar, "Binlerce insanı öldürdük. Her şeyi otomasyona bağladık ve hedefleri tek tek kontrol etmedik. İşaretlenen kişiler evlerine adım attıklarında onları bombaladık." sözleriyle insan kontrolünün devreden çıkarıldığını teyit etti.
Kaynaklardan birinin, "önemsiz bir ismi öldürmek için bir evi bombalamalarının istenmesinin, kendisi için çok şaşırtıcı" olduğu yorumu, İsrail'in Gazze'deki sivil katliamının itirafı olarak görüldü.
Üst düzey hedefler için 100 sivil zayiata kadar yeşil ışık
Kaynaklar alt düzey bir kişiye düzenlenen operasyonda "20 sivil zayiat"a kadar izin verildiğini ve bu sayının süreç içinde sık sık artıp azaldığını belirterek, "orantılılık ilkesinin" uygulanmadığına dikkati çekti.
Öte yandan üst düzey hedefler için söz konusu sayının 100'e kadar çıktığı belirtildi.
Kaynaklar, kendilerine "bombalayabildikleri her yerin bombalanması" emrinin verildiğini ifade ederken şöyle dedi:
Üst düzey yetkililere histeri hakimdi. Nasıl tepki vereceklerini bilemiyorlardı. Tek bildikleri Hamas'ın kapasitesini kısıtlamak için deli gibi bombalamaktı.
Hata payı yüzde 10
Lavender'ı kullanmış olan B. adlı üst düzey asker, programın "hata payının yüzde 10 civarında olduğunu" iddia ederek, zaman kaybının önlenmesi için insanlar tarafından kontrol edilme zorunluluğunun olmadığını belirtti.
"İsrail askerlerini gerçekten tehlikeye atmıyordu"
B, hedeflerin az olduğu günler uygulamanın kapsamının genişletildiğini, daha kalabalık bir kitlenin hedef alındığını belirterek şöyle dedi:
Hamas üyesi tanımını daha da genişletildiğinde, uygulama her türlü sivil savunma personelini ve polis memurlarını hedef almaya başladı.
Bu kişiler Hamas'a yardım etse de İsrail askerlerini gerçekten tehlikeye atmıyordu.
"O kişi tüm ailesiyle evinde bombalanıyordu"
Sistemin eksikliklerine dikkati çeken B, şöyle konuştu:
Eğer hedef kişi telefonunu başka bir kişiye verdiyse, o kişi tüm ailesiyle evinde bombalanıyordu. Bu çok sık oldu. Lavender'ın en sık yaptığı hatalardan biri buydu.
"Öldürülenlerin çoğu kadın ve çocuktu"
Öte yandan, "Where's Daddy?" adı verilen bir diğer yazılımın, binlerce kişiyi eş zamanlı takip ederek, evlerine girdikleri zamanı İsrailli yetkililere bildirdiği belirtildi.
Bu yazılım sayesinde hedef alınan kişilerin evlerinin bombalandığı kaydedilirken şu ifadeleri kullandı:
Diyelim ki bir evde bir Hamas üyesi ve 10 sivil olduğunu hesapladınız, genellikle bu 10 kişi kadın ve çocuk olur.
Yani saçma bir şekilde, öldürdüğünüz insanların çoğu kadın ve çocuk oluyor.
"Bir aileyi hiç uğruna öldürmüş oluyordunuz"
Bu sistemin de hesaplama hataları yaptığını ifade edilirken kaynaklardan biri şu açıklamayı yaptı:
Çoğu kez hedeflenen kişi, bombaladığımız evde olmuyordu bile. Sonuç olarak bir aileyi hiç uğruna öldürmüş oluyordunuz.
Tasarruf amacıyla güdümsüz bombalar kullanılıyor
Kaynaklar ayrıca "pahalı silahlardan tasarruf etmek" amacıyla daha düşük rütbeli kişilerin "güdümlü akıllı bombalar" yerine "güdümsüz bombalarla" hedef alındığını ve bunun sonucunda hedef alınan kişinin bulunduğu ve çevresindeki binaların yıkılması sebebiyle birçok sivilin hayatını kaybettiğini söyledi.
Güdümsüz bombaların kullanımına ilişkin konuşan kaynaklardan biri de şöyle dedi:
Saldırıları genellikle güdümsüz bombalarla yapıyorduk ve bu da kelimenin tam anlamıyla tüm evi içindekilerle yok etmek anlamına geliyordu. Sistem yüzünden hedefler hiç bitmiyor.
"Yapay zeka, sivil kayıpları azaltmak için değil, daha fazla hedef bulmak için kullanılıyor"
Konuya ilişkin Al Jazeera'ya konuşan, Katar'daki Hamid bin Halife Üniversitesinde Orta Doğu Çalışmaları ve dijital beşeri bilimler alanında çalışan Prof. Marc Owen Jones, şu ifadeleri kullandı:
İsrail'in, sivillerin hayatı hakkında karar vermeye yardımcı olması için şeffaf bir değerlendirmeden geçmemiş, test edilmemiş yapay zeka sistemleri kullandığı giderek daha açık hale geliyor.
Yapay zeka sistemi kullanan İsrailli yetkililerin, hedef seçimini yapay zekaya devrettiklerini ve "ahlaki sorumluluktan kaçınmak" için bu sistemi kullandıklarını öne süren Jones, sistemin "sivil kayıpları azaltmak için değil daha fazla hedef bulmak için" kullanıldığını söyledi.
Jones, sistemi işleten yetkililerin bile yapay zekayı bir "öldürme makinası" olarak gördüğünü belirterek, "müttefikleri İsrail'e baskı yapmaz" ise bu ülkenin saldırılarda yapay zeka kullanımına son vermesinin düşük bir ihtimal olduğunu vurguladı.
Olayı yapay zeka destekli soykırım olarak niteleyen Jones, "Savaşlarda yapay zeka kullanımı için bir moratoryum çağrısı yapılması gerekiyor." dedi.
"Habsora" (The Gospel)
1 Aralık 2023'te yayımlanan başka bir araştırmada ise İsrail ordusunun, Gazze Şeridi'ne yönelik saldırılarında hedef belirlemek için kullandığı "Habsora" (The Gospel) adlı yapay zeka uygulamasını sivil altyapının kasıtlı olarak vurulmasında kullanıldığını ve bu uygulamayla otomatik olarak üretilen hedeflere yönelik saldırılarda kaç sivilin yaşamını yitireceği her zaman bilindiği belirtilmişti.
İsrail'in kullandığı bir diğer yapay zeka teknolojilerinden olan "Habsora" (The Gospel) binaları ve yapıları hedef alırken, Lavender kişileri hedef alıyor.