Ölümcül Otonom Sistemlerin Silahlı Çatışma Hukuku Bakımından Değerlendirilmesi ve Kargu-2 Meselesi
Birleşmiş Milletler Güvenlik Konseyi’ne Libya Uzmanlar Paneli tarafından sunulan 8 Mart 2021 tarihli raporda [1], STM şirketi tarafından üretilen Kargu-2’nin, Libya Ulusal Mutabakat Hükümeti ile Hafter güçleri arasındaki çatışmalarda Hafter güçlerinin hedef alınmasında önemli bir rol oynadığı ifade edilmiştir. Raporda, Kargu-2’nin operatör ve mühimmat arasında veri bağlantısı gerektirmeyecek şekilde hedeflere saldırı için programlandığı ve gerçek bir “ateşle, unut, bul” esasına göre çalışan ölümcül otonom silah sistemi olduğu öne sürülmüştür. Bu durum, ilk kez tam otonom bir sistemin, yani yaygın adıyla “katil robot”un savaş sahasına dahil olması ve insanları hedef alması iddialarını gündeme getirmiştir. Kargu-2 özelinde otonom silahların kullanımı ve hukuki statüsü uluslararası medyada geniş yankı uyandırmıştır.[2]
Otonom silahların kullanımının hukuki boyutu, halihazırda uluslararası toplumun en önemli gündem maddelerindendir. İnsan hakları örgütleri, tanınmış kişiler ve bazı devletler otonom silahların yasaklanması çağrısında bulunmuştur. Bu çağrıların en dikkat çekici örneklerinden biri, Human Rights Watch tarafından 2012 yılında başlatılan “Katil Robotları Durdurun” kampanyasıydı.[3] Bu kapsamda uluslararası bir sözleşme ile tam otonom silahların önleyici olarak yasaklanması savunulmaktaydı. 2015 yılında Stephen Hawking, Steve Wozniak ve Elon Musk gibi yapay zekâ ve robotik alanındaki önemli isimlerin de bulunduğu bir grup, anlamlı insan kontrolünün dışında kalan saldırı amaçlı otonom silah sistemlerinin yasaklanmasını isteyen açık bir mektup yayınlamıştır.[4] Bu inisiyatifler sayesinde konu devletler arası boyuta taşınmış ve Belirli Konvansiyonel Silahlar Sözleşmesi’ne (CCW) taraf devletler 2016’da ölümcül otonom sistemlere dair sorunları değerlendirmek üzere bir Hükümetler Arası Uzman Grubu kurmuştur.
Mevcut gelişmeler ışığında, bu yazıda kısaca ölümcül otonom sistemlerin silahlı çatışma hukukunun (SÇH) – yani uluslararası insancıl hukukun – temel ilkeleri açısından yol açacağı problemleri ve Kargu-2’nin durumunu inceleyeceğiz.
Ölümcül Otonom Sistemler ve Silahlı Çatışma Hukuku
Bir sistemdeki otonomi; insan-makine etkileşimi, makinenin karmaşıklık seviyesi ve icra edilen fonksiyonun türü gibi farklı boyutlara işaret edebilir.[5] İnsan ve makine etkileşimine göre otonominin insanı karar alma mekanizmasında konumlandırdığı üç pozisyon vardır: döngü içinde insan, döngü üstünde insan ve döngü dışında insan. İnsanın döngü dışında olduğu durum ise tam otonom mod olarak adlandırılmaktadır. Otonom silah sistemleri en yaygın tanımıyla “bir kez aktifleştirildiğinde hedefleri insan operatörün müdahalesi olmadan seçebilen ve angaje olabilen silah sistemleri”[6] yani yapay zekâ ile çalışan tam otonom sistemlerdir. Bu çalışma şekilleri, söz konusu sistemlerin SÇH açısından meşruiyeti konusunda tartışmalara yol açmaktadır.
Halen otonomi ve ölümcül otonom sistemlerin mahiyeti uluslararası hukuk tarafından açıkça düzenlenmediğinden, bu silah sistemleri mevcut uluslararası teamül hukuku ve Cenevre Konvansiyonları’na tabidir. Buna göre, bir silahın ve kullanımının SÇH açısından meşruiyetinin belirlenmesi iki farklı boyutta incelenir: silah hukuku ve hedefleme hukuku.
Silah Hukuku
Silah hukuku, bir silahın doğası gereği SÇH kurallarına uygun olup olmadığını araştırır. Büyük ölçüde teamül hukuku niteliği taşıyan Cenevre Konvansiyonları’na Ek Protokol I’in 35. ve 36. maddeleri dikkate alındığında; kişiler üzerinde lüzumsuz yaralanma ve gereksiz acıya yol açacak, doğal çevreye geniş çapta, uzun vadeli ve ağır zarar verecek, ayrım gözetemeyen ve kontrol edilemeyen silahlar SÇH tarafından yasaklanmaktadır.[7] Örneğin, bir biyolojik silahın – söz gelimi bir virüsün- sivillerle askeri hedefleri arasında ayrım gözetebilme kapasitesine sahip olması yapısı gereği imkânsız olacağından ve kontrol edilemez sonuçlara yol açacağından silah bizatihi hukuka aykırı olacaktır.
Hedefleme Hukuku
Öte yandan hedefleme hukuku, yapı itibariyle caiz görülen bir silahın, çatışma esnasındaki kullanımının hukuka uygun olup olmadığını konu edinir. Hedefleme hukukunun üç temel payandası ayırt etme, orantılılık ve ihtiyatilik ilkeleridir. Bu prensipler SÇH’nin özünü oluşturur.
- Ayırt Etme İlkesi: Silahlı çatışma süresince siviller ile askeri hedefler arasında fark gözetilmesini ve saldırıların yalnızca askeri hedeflere yönlendirilmesini emreder.[8]
- Orantılılık Prensibi: “elde edilmesi beklenen somut ve doğrudan askeri avantaja kıyasla aşırı olarak kabul edilecek miktarda sivil halkta insan hayatının kaybına, yaralanmalara ve sivil nitelikteki mallara zarar verilmesine … sebep olması beklenebilecek”[9] saldırıları yasaklar.
- İhtiyatilik İlkesi: Çatışmada sivillerin ve sivil malların zarar görmemesi için gerekli özenin gösterilmesi, hedeflemede tüm önlemlerin alınması ve orantısız saldırılardan kaçınılmasını gerektirir.[10]
Geleneksel olarak hedef tespit, teşhis ve teyit süreci; askeri operasyon esnasında bulunan gerçekleri, bağlamı ve değerleri takdir eden bir insan tarafından yürütülmüştür. Bu nedenle otonom silahların yapay zekânın gelişimiyle birlikte bu ilkelere uygun kullanılıp kullanılamayacağı tartışılmaktadır. Mesela, eskiden ulus devletler arasında gerçekleşen düzenli çatışmalarda ayırt etme ilkesini gözetmek daha kolayken, günümüzdeki aktörlerin ve yöntemlerin ani değişimleri nedeniyle sivil-muharip kategorileri arasında ayrım yapmak oldukça zordur. Zira güncel çatışmalarda muharip taraflar kendilerini ayırt edici üniformalardan kaçınmaktadırlar.
Ayrıca uluslararası nitelikte olmayan silahlı çatışmalarda kişilerin askeri hedef haline gelmesi, doğrudan husumete katılma koşuluna bağlı olduğundan yapay zekanın bu gibi muğlak ve bağlamda belirlenebilen bir durumu nasıl değerlendireceği net değildir. Örneğin, her tüfek taşıyan kişinin düşman kabul edileceği varsayımında, söz konusu kişinin meşru hedef olup olmadığı şüphelidir; çünkü kişi çatışma ile bağlantısı (belligerent nexus) olmayıp, sadece bireysel savunma amaçlı silah taşıyor olabilir. Benzer şekilde, orantılılık ilkesi açısından saldırının ölçülü olup olmadığının belirlenmesinde yapay zekanın nasıl bir değerlendirme yapacağı merak konusudur. Silahlı kuvvetlerin muhtemel ikincil zararı hesaplamak için kullanabileceği nicel metotlar olsa da, orantılılık prensibi; “aşırılık” ve “askeri avantaj” gibi kavramlar açısından muharip nitel ve göreceli değerlendirmeler yapmasını gerektirir.
Tüm bu hususlar ve mevcut teknoloji göz önüne alındığında, ölümcül tam otonom sistemlerin SÇH kapsamında hukuka uygun kullanılamayacağı muhtemeldir. Açık deniz, çölün uzak bir noktası veya askerden arındırılmış bölge gibi kontrollü sahalarda sadece cansız nesneleri hedef alan anti-materyal otonom silah sistemlerinin SÇH ilkelerine halel getirmeyeceği savunulabilir.[11] Fakat bu son derece kısıtlı alanlar dışında, sivil nüfusun bulunduğu ve muhariplerle temas ettiği bölgelerde SÇH’ye uygunluğun sağlanabilmesi için belirli bir derecede insan kontrolü gereklidir; tam otonom bir sistem büyük olasılıkla hukuka aykırı sonuçlar doğuracaktır. Hatta sivil nüfusun olmadığı, sadece muharip bulunan ihtimalde dahi anti-personel bir otonom sistem hors de combat[12] durumundaki muharipleri – yani yaralanmasından, hastalığından veya bilincinin yerinde olmamasından dolayı hedef alınamayacak olanları – ayırt etmede yetersiz kalacağı için SÇH’ye uygun olmayacağı söylenebilir. Nitekim CCW Hükümetler Arası Uzman Grubu’nun 2019 yılında konsensusa vardığı ilkeler de insan kontrolünün varlığının gerekliliğini teyit etmektedir.[13]
Kargu-2 Meselesi
Libya Uzman Paneli tarafından hazırlanan raporda, Hafter güçlerine ait lojistik konvoyları ve geri çekilmekte olan kuvvetlerin Kargu-2 gibi tam otonom modda saldırmaya programlanmış öldürücü otonom silahlar tarafından hedef alındığı ve uzaktan müdahale edildiği iddia edilmişti. Bu sistemlerin, Pantsir gibi diğer savunma sistemlerini saf dışı bırakmada etkili olduğu ve Hafter güçlerine önemli kayıplar verdiği belirtilmekteydi. Peki Kargu-2, raporda ve medyada sıklıkla yansıtıldığı üzere insanları avlamaya programlanmış gerçek bir katil robot mudur? Kargu-2 yasaklanması gereken bir silah sistemi midir?
Üretici şirketin tanıtımına göre Kargu-2, gezinen mühimmat veya kamikaze drone olarak bilinen “yüksek riskli, kompleks çatışma bölgelerindeki görüş içi ve ötesi hedeflerin tespit ve teyidini sağlayarak kullanıcı personele keşif, gözetleme, istihbarat ve hassas vuruş”[14] sağlamak için kullanılan bir otonom sistemdir. Bu sistem makine öğrenimi kabiliyetiyle nesne tanımlaması yapabilmekte ve anti-personel olarak da kullanılabilmektedir. Raporda iddia edildiği gibi tamamen otonom olduğu üretici tarafından kabul edilse de, burada önemli bir nüans bulunmaktadır: Üretici otonomi kelimesini icra edilen spesifik görev bağlamında kullanırken, BM uzmanları aynı kavramı insan-makine etkileşimine referansla kullanmaktadır. Oysa üreticisi, Kargu-2’nin hedeflemede döngü içinde insan prensibiyle çalıştığını belirtmekte ve tam otonom özelliklerin çatışma alanındaki navigasyon becerilerine ait olduğunu vurgulamaktadır. Ayrıca bazı uzmanlarca[15] da dikkat çekildiği üzere, raporda Kargu-2’nin hedefleme esnasında insanı döngü dışı bırakarak kullanıldığına dair bir kanıt bulunmamaktadır.
Silah hukuku açısından bakıldığında; Kargu-2’nin kullanıldığı ve tasarlandığı amaç dikkate alınırsa, gerekli yapay zekâ unsurlarıyla donatılıp parametrelerle sınırlandırılması durumunda ayrım gözetebilen bir silah olacağı söylenebilir. Nitekim uluslararası hukuk uygulaması da bu sonucu desteklemektedir. Uluslararası Adalet Divanı, Nükleer Silah Tehdidi ve Kullanımının Hukukiliği Danışma Görüşü’nde silahın kullanılacağı bağlamın önemini vurgulamış ve nükleer silahların dahi kullanımının her zaman hukuka aykırı olacağını kanıtlayan yeterli temellendirmenin olmadığını ifade etmiştir.[16]
Hedefleme hukuku bakımından ise, Kargu-2’nin yapay zekâ tarafından hedefe saldırı önerisini onaylayacak veya bu kararı denetleyebilecek bir insanın döngüde olduğu durumda SÇH prensiplerine kural olarak uygun kullanılabileceği söylenebilir. Kargu-2 kamikaze drone olduğu düşünülürse, infilak edeceği ana kadar hedefin tespiti ve teşhisi için uzaktaki operatöre eş zamanlı görüntü sağlayabildiğinden ve operatör son ana kadar duruma müdahale edebildiğinden kullanımının ayırt etme ve ihtiyatilik ilkelerine uygunluğu pekiştirebileceği düşünülebilir. Aynı şekilde, havan topu gibi daha uzak menzilden kullanılan ve patlayıcı şiddeti yüksek silahların siviller ve sivil objeler üzerinde ikincil zararlar bıraktığı göz önüne alındığında[17], bir asker gibi hayatını koruma kaygısı olmayan Kargu-2 gibi bir kamikaze drone, hedefin en yakınına yaklaşarak oluşacak tali zararları önemli ölçüde azaltabilir ve orantılılık prensibine uygunluğu güçlendirebilir.
Sonuç olarak, BM Libya Uzmanlar Paneli Raporu’nun Kargu-2’yi ölümcül tam otonom sistem olarak sınıflandırması teknik açıdan dayanaktan yoksun bir varsayım üzerine inşa edilmiş gibi görünmektedir. Ulrike Franke gibi drone politikaları uzmanlarınca eleştirildiği üzere[18], rapor kapsamında özellikleri, çalışma modu ve neticeleri tespit edilemeyen Kargu-2 hakkında uluslararası medyada yaygın olan ilk kez bir insanın “katil robot” tarafından öldürülmüş olabileceği iddiasının topladığı ilginin sebebi de belirsizdir. Kargu-2’nin sahip olduğu otonominin niteliği belirtilmeksizin ve silahlı çatışma hukuku ilkelerine ne derece uygun davranıp davranamayacağı irdelenmeden raporda varılan kanının doğru olmayan bir algı oluşturduğu söylenebilir.





