Ölümcül Otonom Silah Sistemleri (LAWS) ve Savaş Hukuku
Birleşmiş Milletler Uzmanlar Paneli’nin Mart 2021 tarihli Libya raporuna göre, Türkiye yapımı bir süzülen mühimmat olan Kargu-2, Ulusal Hükümet Güçleri tarafından Haftar Silahlı Kuvvetleri’ne (HAF) yönelik hedef almada önemli bir rol oynamıştır. Raporda, bu sistemin “operatör ile mühimmat arasında veri bağlantısı gerektirmeden hedeflere saldırmak üzere programlandığı; fiilen gerçek bir ‘ateşle, unut ve bul’ yeteneğine sahip olduğu” iddia edilmiştir. Bu kapsamda, savaş alanlarında insanları hedef alan tam otonom bir ölümcül sistemin ilk kez kullanıldığı öne sürülmüştür. Bu gelişme, özellikle Kargu-2 özelinde, otonom silah sistemlerinin ve kullanımının hukuka uygunluğu konusunda uluslararası medyada büyük eleştirilere yol açmıştır.[1]
Ölümcül Otonom Silah Sistemleri (LAWS) konusundaki hukuki boyut, zaten uluslararası toplumun gündemindedir. İnsan hakları örgütleri, önde gelen isimler ve bazı ülkeler bu sistemlerin yasaklanmasını talep etmiştir. En önemli girişimlerden biri olarak Human Rights Watch, 2012 yılında “Killer Robots’a Dur” kampanyasını başlatmış ve bu sistemlere önleyici bir yasak çağrısında bulunmuştur.[3] Ayrıca Stephen Hawking, Elon Musk ve Steve Wozniak gibi robotik ve yapay zeka araştırmacılarından oluşan bir grup, 2015 yılında anlamlı insan kontrolünün ötesindeki saldırı amaçlı otonom silahlara yasaklama talep eden açık bir mektup yayınlamıştır.[4] Bu çağrılar, devletler arasında bir dizi gayri resmi toplantıya yol açarak bir süreci tetiklemiştir. Silahlar Üzerindeki Belirli Sözleşmesi’nin (CCW) Yüksek Tarafları ise 2016 yılında LAWS’ların getirdiği zorlukları görüşmek üzere Bir Hükümet Uzmanları Grubu (GGE) kurmuştur.
Mevcut gelişmeler ışığında, bu yazı LAWS’ların Savaş Hukuku’nun temel prensiplerine yol açtığı sorunları ve Kargu-2’nin durumunu kısaca incelemektedir.
Ölümcül Otonom Silah Sistemleri ve Savaş Hukuku
Otonomi, bir sistemde insan ile makine arasındaki etkileşimin doğası, makinenin karmaşıklık düzeyi ve makinenin gerçekleştirdiği işlev türü gibi farklı yönlere atıfta bulunabilir.[5] İnsan-makine etkileşim seviyesi açısından üç farklı konum bulunmaktadır: insan döngüsü içinde (human-in-the-loop), insan döngüsü üzerinde (human-on-the-loop) ve insan döngüsü dışında (human-out-of-the-loop). Sonuncusu, tamamen otonom mod olarak kabul edilir. Otonom silah sistemleri, “aktive edildikten sonra, bir insan operatörün daha fazla müdahalesi olmaksızın hedefleri seçip etkisiz hale getirebilen silah sistemleridir”[6]. Bu sistemler yapay zeka (AI) ile tamamen otonom modda çalışmakta olup, bu durum onların Savaş Hukuku’na uygunluğu sorusunu gündeme getirmektedir. LAWS henüz hiçbir uluslararası antlaşma tarafından özel olarak düzenlenmediği için, bunların kullanımı ve işleyişi Cenevre Sözleşmeleri ve örf hukuku ile yönetilmektedir. Bu çerçevede, LAWS’ların yasal olup olmadığını belirleyen iki farklı boyut bulunmaktadır: silah hukuku ve hedefleme hukuku.
Silah Hukuku
Silah hukuku, bir silahın doğası gereği Savaş Hukuku’na uygun olup olmadığını belirler. Cenevre Sözleşmeleri Ek Protokol I’in 35. ve 36. Maddeleri birlikte değerlendirildiğinde genel kabul gören görüş şudur ki; bir silah ne keyfi ne de kontrol edilemez olmalı, insanlara gereksiz acı veya fazlalık yaratan zarara neden olmamalı ve doğal çevreye yaygın, uzun süreli ve ağır hasar vermemelidir.[7] Örneğin, bir biyolojik silah – virüs gibi – doğası gereği sivilleri savaşçılardan ayırt etmeye veya etkilerini kontrol etmeye izin vermediği için kendiliğinden yasa dışı kabul edilecektir.
Hedefleme Hukuku
Öte yandan, hedefleme hukuku bir silahın çatışma sırasında nasıl kullanıldığını değerlendirir. Hedefleme hukukunun üç temel direği vardır: ayrım ilkesi, orantılılık ve tedbir alma prensibi. Bu ilkeler vazgeçilmezdir ve Savaş Hukuku’nun çekirdeğini oluşturur. Ayrım ilkesi, siviller ile savaşçıları ayırt etmeyi ve askeri operasyonları yalnızca askeri hedeflere yöneltmeyi gerektirir.[8] Orantılılık ilkesi ise “beklenen somut ve doğrudan askeri avantaja göre aşırı” saldırıları yasaklar.[9] Son olarak, tedbir alma prensibi, çatışan taraflardan sivillere/sivil nesnelere verilen zararı ortadan kaldırmak veya en aza indirmek için her türlü mümkün önlemi almayı ve orantısız saldırılardan kaçınmayı gerektirir.[10]
Geleneksel olarak hedefleme süreci, askeri operasyonlar sırasında gerçeklere, bağlamlara ve değerleri takdir eden insanlar tarafından yürütülür. Yapay zeka’nın gelişmesiyle birlikte, LAWS’ların bu temel prensiplere kendi kapasiteleriyle uygun kullanılıp kullanılamayacağı tartışmalıdır. Daha önce düzenli ordular arasında ulus-devlet çatışmaları olduğu için ayrım ilkesini sürdürmek daha kolaydı. Ancak günümüz savaş sahalarında aktörlerin ve savaş yöntemlerinin hızlı ama derin değişmesi nedeniyle, savaşçı ile sivil arasındaki ayrımı yapmak çok zor bir görev haline gelmiştir; örneğin, savaşçılar artık nişan veya üniforma taşımamaktadır.
Ayrıca, uluslararası çatışmalarda meşru hedeflerin belirlenmesinde belirleyici bir koşul olan “doğrudan savaşa katılma” eyleminin yapay zeka tarafından nasıl yorumlanacağı belirsizdir; çünkü bu kavram muğlak ve bağlama bağlıdır. Örneğin, AI bir kişide tüfek tespit etse bile, kişi kendini koruma amaçlıysa savaşçı bağı eksik olduğu için meşru hedef olmayabilir. Benzer şekilde, AI tarafından verilen yargı orantılılık ilkesi açısından endişe vericidir. Askerler tarafından muhtemel yan hasarı tahmin etmek için nicel yöntemler bulunmasına rağmen, orantılılık ilkesi aynı zamanda “aşırılık” ve “askeri avantaj” gibi kavramlar için niteliksel ve göreceli değerlendirmeler gerektirir.
Bu tüm hususlar ve mevcut teknoloji göz önüne alındığında, LAWS’ların Savaş Hukuku prensiplerine uygun kullanımı muhtemelen yasa dışıdır. Bununla birlikte, istisnai durumlarda – örneğin çölün uzak bölgelerinde, yüksek denizlerde veya askerden arındırılmış bölgelerde anti-materyal otonom silah sistemlerinin kullanılması gibi – hukuka uygun olabileceği belirtilmelidir.[11] Bu nadir ve sıkı kontrol edilen alanlar dışında, sivil nüfus ve savaşçıların bir arada bulunduğu çatışma bölgelerinde, Savaş Hukuku’na uyumu sağlamak için belirli bir ölçüde insan kontrolü gereklidir. Hatta sadece savaşçılardan oluşan bir çatışma bölgesi bile, anti-personel LAWS’lar hâlâ Savaş Hukuku’na uymayabilir; çünkü yapay zeka, yaraları, hastalıkları ve bilinçsizlikleri nedeniyle hors de combat durumundaki savaşçıları algılayamayabilir.[12] Gerçekte, insan kontrolüne olan ihtiyaç CCW Bir Hükümet Uzmanları Grubu tarafından 2019’da benimsenen yol gösterici prensiplerde yansıtıldığı üzere doğrulanmıştır.[13]
Kargu-2 Sorunu
BM Libya Uzmanlar Paneli Raporu’nda, “Lojistik konvoyları ve geri çekilen HAF, daha sonra STM Kargu-2 gibi insansız savaş hava araçları veya ölümcül otonom silah sistemleri tarafından avlanmış ve uzaktan etkisiz hale getirilmiştir” ifadesi yer almıştır. Ayrıca bu silahın “operatör ile mühimmat arasında veri bağlantısı gerektirmeden hedeflere saldırmak üzere programlandığı” belirtilmiştir. Kargu-2’nin çeşitli silah kombinasyonlarıyla, Pantsir sistemlerini aşma ve kayıplara neden olma açısından önemli ölçüde etkili olduğu da vurgulanmıştır. Peki Kargu-2 gerçekten raporda ve uluslararası medyada tasvir edildiği gibi insan avlamak üzere programlanmış bir “ölümcül robot” mudur? Kargu-2 yasaklanması gereken bir silah sistemi midir?
Üreticisine göre Kargu-2, loitering mühimmat veya kamikaze drone olarak bilinen otonom bir sistemdir ve “kara birlikleri için taktiksel ISR [istihbarat, gözetleme ve keşif] ve hassas vuruş kabiliyetleri sağlamak üzere tasarlanmıştır”[14]. Bu sistem, makine öğrenimi yoluyla nesne sınıflandırma yeteneği sayesinde anti-personel silah olarak da kullanılabilir. Üretici Kargu-2’yi BM Uzmanları gibi tamamen otonom kabul eder; ancak burada kritik bir nüans bulunmaktadır. Üretici terimi performansa göre otonom kullanırken, BM uzmanları bunu insan-makine etkileşim boyutuyla ilişkilendirmiştir. İlki, Kargu-2’nin hedeflemede insan döngüsü içinde (human-in-the-loop) prensibine uygun çalıştığını ve tamamen otonom özelliklerinin çatışma alanındaki navigasyon becerilerine ait olduğunu belirtmektedir. Bu bağlamda, rapor, bazı akademisyenlerin de belirttiği gibi, hedefleme sırasında Kargu-2’nin insan döngüsü dışında (human-out-of-the-loop) kullanıldığına dair herhangi bir veri içermemektedir.[15]
Silah hukuku açısından bakıldığında, Kargu-2’nin amaçlanan kullanım ve amaca yönelik yeterli parametreler ve yapay zeka unsurları eklenmesi durumunda, Kargu-2’yi keyfi olmaktan etkin bir şekilde alıkoyarak yasal olabileceği çıkarılabilir. Bu sonuç, Uluslararası Adalet Divanı’nın nükleer silahların yasallığına karar verirken özel koşulların önemini vurgulamasıyla uyumlu görünmektedir. Danışma Görüşü’nde Mahkeme, nükleer silahların kullanımının her zaman İHukuku prensiplerine aykırı olduğuna dair yeterli dayanak olmadığını ilan etmiştir.[16]
Hedefleme hukuku açısından ise, hedef seçimlerini yapabilen, onaylayabilen veya denetleyebilen bir insan döngüsü olduğu sürece Kargu-2’nin Savaş Hukuku prensiplerine uygun çalışabileceği savunulabilir. Kamikaze drone olması nedeniyle ve operatöre son ana kadar hedef tespiti ve tanımlaması için gerçek zamanlı görüntü sağlayabilmesi, operatörün müdahale etmesi için bir zaman aralığı genişleterek ayrım ve tedbir alma ilkelerini güçlendirir. Ayrıca yan hasarı azaltarak orantılılık ilkesini de güçlendirebilir. Topçu gibi daha uzak mesafelerden ateşlenen geleneksel silahlar, sivillere ve sivil nesnelere daha fazla zarar vererek daha yüksek düzeyde şiddet uygularken[17], Kargu-2 gibi kamikaze dronlar, hayat korkusu olmadan hedefe yaklaşabildiği için hassasiyeti artırarak yan hasarı önemli ölçüde azaltabilir.
Sonuç olarak, BM Uzmanlar Paneli’nin Libya Raporu tarafından Kargu-2’yi tamamen otonom bir silah sistemi olarak sınıflandırması, teknik özellikler açısından yeterli maddi temele dayanmayan varsayımlara dayalı görünmektedir. Ulrike Franke gibi bazı drone politikası uzmanlarının eleştirdiği gibi,[18] “ölümcül robot” iddiasının medyada bu kadar ilgi çekmesinin nedeninin açık olmadığı görülmekle birlikte, Kargu-2’nin özellikleri, çalışma modu ve sonuçları raporun kapsamı içinde belirlenememiştir. Rapora göre otonominin doğasını belirtmemesi ve LAWS prensiplerine uygun hareket edip etmediğini yeterince incelememesi nedeniyle yanlış bir algı yaratıldığı tespit edilmiştir.





