İsrail’in Gazze’deki Saldırıları ve Yapay Zeka Kullanımı
İsrail, 7 Ekim 2023 tarihinde başlayan saldırılardan bu yana Gazze’de Hamas, Lübnan’da Hizbullah ve Yemen’de Ansar Allah ile çatışmalarını sürdürmektedir. Bu süreçte İsrail’in gerçekleştirdiği ölümcül saldırılar, uluslararası alanda büyük yankı bulmuş ve eleştirilere maruz kalmıştır. Özellikle Gazze’de hastaneler, okullar ve Birleşmiş Milletler ofisleri gibi sivil alanları hedef alan İsrail ordusu, saldırılarını “askeri hedefleri imha etmek” olarak meşrulaştırmaya çalışmaktadır. Ancak bu “askeri hedeflerin” nasıl belirlendiği ve sivil kayıpların neden bu kadar fazla olduğu merak konusudur.
+972 Dergi ve Local Call gibi çevrimiçi haber platformları, bu konudaki bulgularını paylaşarak, İsrail ordusunun hedef belirleme süreçlerini incelemiştir. Yayımlanan araştırmalara göre, İsrail ordusu, Hamas gibi gruplara bağlı hedefleri hızlı ve etkili bir şekilde belirlemek için yapay zeka sistemleri kullanmaktadır. Bu sistemler, olası sivil kayıpları göz ardı ederek hedefleri belirlemekte ve bu bilgileri İsrail İHA’larının hedefleme sistemine iletmektedir. İsrail ordusu personeli, seçilen hedeflerin infazını yalnızca 20 saniye içinde onaylamaktadır.
Savaşın Üç Temel Yapay Zeka Sistemi
+972 Dergi’ye bağlı İsrailli ve Filistinli gazeteciler, kimliklerinin gizli tutulması şartıyla altı İsrail ordusu yetkilisiyle görüşmüştür. İsimleri gizli kalan ordu yetkilileri, İsrail’in hedef belirleme süreçlerinde kullandığı yapay zeka programları hakkında kapsamlı bilgi vermiştir. İsrail ordusu üst düzey yetkilisi B., “(Hamas) militanlarını yalnızca askeri bir binada ya da askeri bir faaliyette iken öldürmek yeterli değildi. Aksine, ilk tercih olarak hiç tereddüt etmeden onları evlerinde bombalıyorduk. Bir ailenin evini bombalamak çok daha kolay. Sistem bu gibi durumlarda onları aramak üzere geliştirilmiştir.” ifadelerini kullanmıştır.
- Gospel (Müjde) Sistemi: Bu, İsrail’in ilk yapay zeka sistemidir ve Hamas gibi örgütler tarafından kullanılan binaları telefon sinyalleri, uydu görüntüleri ve çevredeki araç plakaları gibi verilerle tespit etmeyi amaçlamaktadır. Neredeyse altı yıldır, askeri işlev gören binaları bulmak için kullanılmaktadır.
- Lavender (Lavanta) Sistemi: Gospel’in geliştirilmesi sonucu ortaya çıkan bu sistem, 7 Ekim saldırısından hemen sonra devreye girmiştir. Lavender, daha önce örgüt üyesi olduğu bilinen kişilerin verilerini, Hamas ve Hizbullah’a bağlı sivil toplum kuruluşlarının verileriyle birleştirerek, bireylerin nüfus bilgilerini tarar ve onları 1’den 100’e kadar bir ‘terörist değeri’ ile etiketler.
- Where’s Daddy? (Baba Nerede?) Sistemi: Bu sistem, hedef alınan militanların evlerinde olduğundan emin olmak için kullanılır. Kameralar ve telefon sinyalleri yardımıyla, hedeflerin evlerinde olup olmadığını doğrular ve tam olarak hedefin evine ulaşıldığında vur emri verilir.
İnsani Zararlar ve Kabul Edilebilir Zaiyat
Lavender sistemi, hedefleri seçmek için çok sayıda veriyi işleyerek, her bir bireyi ‘terörist değeri’ ile etiketler. Bu liste, İsrail ordusunun subayları tarafından infaz listesi olarak kullanılmaktadır. Subay B., durumu şöyle ifade etmektedir: “Biz (insanlar), bu kadar çok bilgiyi işleyemeyiz. Savaş sırasında hedef üretmek için kaç kişiyi görevlendirdiğinizin bir önemi yok – yine de gün içinde yeterli hedef üretemezsiniz.”
7 Ekim saldırılarından sonra, ordu, mümkün olduğunca çok Hamas militanını öldürmeyi hedeflemiştir. Lavender sisteminin belirlediği hedefler, daha önceki dönemlere göre daha dikkatli kontrol edilmeden onaylanmaktadır. Hedeflerin sadece erkek olup olmadığı kontrol edildikten sonra infaz onayı verilmektedir. Bu süreçte, yapay zekanın hata payı olduğu bilinmesine rağmen, onaylar verilmektedir. Bir kaynak, “Bir kişinin yapay zeka makinesi tarafından örgütle bağlantılı olarak görülmesi için Hamas’a ne kadar yakın olması gerekir?” sorusunu sorarak, bu durumun belirsizliğine dikkat çekmiştir.
İsrail, 7 Ekim’den sonraki ilk üç ay içinde Gazze’de hava saldırıları sonucu 37 bin kişinin hayatını kaybetmesine neden olmuştur. Ölenlerin önemli bir kısmı sivil olarak kaydedilmiştir. Bu durumu açıklamak için, Lavender ve Where’s Daddy? sistemlerinin işleyişinin yanı sıra, kabul edilebilir zaiyat kavramı devreye girmektedir. Bu ölçüte göre, düşük rütbeli bir militanın öldürülmesi durumunda 10 ila 20 sivil gözden çıkarılabilirken, yüksek rütbeli bir militan için bu oran 100 sivil olarak belirlenmektedir.
A. adını kullanan bir başka subay, “Diyelim ki [evde] bir Hamas [militanı] ve 10 [sivil] olduğunu hesapladınız,” derken, çoğunluğunun kadın ve çocuk olduğunu vurgulamıştır. +972 Dergisi, bu duyarsızlığın kanıtını da verilerle ortaya koymaktadır: BM rakamlarına göre, savaşın ilk ayında ölen 6.120 kişiden 1.340’ı, ailelerinin evlerinde bulunurken tamamen yok edilmiştir. Mevcut savaşta, evlerinde bombalanan ailelerin oranı, İsrail’in 2014 yılında Gazze’ye düzenlediği operasyon döneminden çok daha yüksektir.
A. ismini kullanan subay, Where’s Daddy? sisteminin de hatasız olmadığını belirterek, hedef evinde bulunmadığında içi kadın ve çocuk dolu evlerin bombalandığını itiraf etmektedir. İsimsiz bir başka kaynak, “Birçok kez bir eve saldırdığımız oldu, ancak hedef evde bile değildi,” diyerek, “Sonuç olarak bir aileyi sebepsiz yere öldürmüş oluyorsunuz.” şeklinde eklemelerde bulunmuştur. İsrail ordusu, bu iddiaları kesin bir dille reddetmekte ve IDF Sözcüsü, +972 Dergisi ve Local Call’a yaptığı açıklamada, hedeflerin belirlenmesi için yapay zeka kullanıldığını kabul etmeyerek, bu sistemlerin yalnızca “seçme sürecinde görevlilere yardımcı olan araçlar” olduğunu ifade etmiştir. Ordu sözcüsü, “Her durumda, belirlenen hedeflerin IDF usulüne uygun ve uluslararası hukukla uyumlu olarak saldırı için meşru hedefler olduğunu doğrulayan bir analist mevcuttur.” açıklamasında bulunmuştur.