ÖLÜMCÜL OTONOM SİSTEMLERİN SİLAHLI ÇATIŞMA HUKUKU BAKIMINDAN DEĞERLENDİRİLMESİ VE KARGU-2 MESELESİ
- Giriş
Birleşmiş Milletler Güvenlik Konseyi’ne Libya Uzmanlar Paneli tarafından sunulan 8 Mart 2021 tarihli raporda[1], STM şirketi tarafından üretilen Kargu-2’nin Libya Ulusal Mutabakat Hükümeti ile Hafter güçleri arasında gerçekleşen çatışmalarda Hafter güçlerinin hedef alınmasında önemli bir rol oynadığı ifade edildi. Raporda, Kargu-2’nin operatör ve mühimmat arasında veri bağlantısı gerektirmeyecek şekilde hedeflere saldırı için programlandığı ve gerçek bir “ateşle, unut, bul” esasına göre çalışan ölümcül otonom silah sistemi olduğu öne sürüldü. İlk kez ölümcül tam otonom bir sistemin, yani bir başka deyişle “katil robot”un savaş sahasına dahil olduğu ve insanları hedef aldığı iddia edildi. Bu gelişme, Kargu-2 özelinde otonom silahlar ve kullanımlarının hukuki statüsü konusunda uluslararası medyada yankı uyandırdı.[2]
Otonom silahların kullanımının hukuki boyutu halihazırda uluslararası toplumun gündeminde olan bir konuydu. İnsan hakları örgütleri, tanınmış kişiler ve bazı ülkeler otonom silahların yasaklanması için çağrıda bulundu. Bu çağrılar arasında en kayda değerlerden biri olan Human Rights Watch tarafından 2012 yılında başlatılan “Katil Robotları Durdurun” kampanyasıydı.[3] Bu kapsamında uluslararası bir sözleşmeyle tam otonom silahların önalıcı şekilde yasaklanması savunuluyordu. 2015’te aralarında Stephen Hawking, Steve Wozniak ve Elon Musk gibi isimlerin de bulunduğu bir grup yapay zekâ ve robotik araştırmacısı, anlamlı bir insan kontrolünün dışında kalan saldırı amaçlı otonom silah sistemlerinin yasaklanmasını isteyen bir açık mektup yayınladı.[4] Bu inisiyatiflerin de etkisiyle, konu devletler arası boyuta taşındı. Belirli Konvansiyonel Silahlar Sözleşmesi’ne (CCW) taraf devletler 2016’da ölümcül otonom sistemlere dair sorunları değerlendirmek üzere bir Hükümetler Arası Uzman Grubu kurdu.
Mevcut gelişmeler ışığında, bu yazıda kısaca ölümcül otonom sistemlerin silahlı çatışma hukukunun (SÇH) – bir başka deyişle, uluslararası insancıl hukukun- temel ilkeleri bakımından yol açacağı problemler ve Kargu-2’nin durumu incelenecektir.
- Ölümcül Otonom Sistemler ve Silahlı Çatışma Hukuku
Bir sistemde otonomi; insan- makine etkileşimi, makinenin karmaşıklık seviyesi ve icra edilen fonksiyonun türü gibi birbirinden farklı boyutlara işaret edebilmektedir.[5] İnsan ve makine etkileşimi açısından otonominin insanı karar alma mekanizmasında konumlandırdığı üç farklı pozisyon vardır: döngü içinde insan, döngü üstünde insan ve döngü dışında insan. İnsanın döngü dışında olduğu hal, tam otonom mod olarak adlandırılmaktadır. Otonom silah sistemleri en yaygın tanımıyla “bir kez aktifleştirildiğinde hedefleri insan operatörün müdahalesi olmadan seçebilen ve angaje olabilen silah sistemleri”[6] yani yapay zekâ ile çalışan tam otonom sistemler olup, çalışma şekilleri söz konusu sistemlerin SÇH bakımından meşruiyeti hususunda yukarıda da değinildiği üzere sorgulamalara yol açmaktadır. Halen otonomi ve ölümcül otonom sistemlerin mahiyeti uluslararası hukuk tarafından açıkça düzenlenmediğinden, bu silah sistemleri halihazırda bulunan uluslararası teamül hukuku ve Cenevre Konvansiyonları’na tabiidir. Buna göre, bir silahın ve kullanımının SÇH açısından meşruluğunun belirlenmesi iki farklı boyutta gerçekleşir: silah hukuku ve hedefleme hukuku.
Silah hukuku, bir silahın doğası gereği SÇH kurallarına uygun olup olmadığını inceler. Büyük ölçüde teamül hukuku karakteri taşıyan Cenevre Konvansiyonları’na Ek Protokol I’in 35. ve 36. maddeleri dikkate alındığında kişiler üzerinde lüzumsuz yaralanma ve gereksiz acıya yol açacak; doğal çevreye geniş çapta, uzun vadeli ve ağır zarar verecek, ayrım gözetemeyen ve kontrol edilemeyen silahlar SÇH tarafından yasaklanmaktadır.[7] Örneğin, bir biyolojik silahın – söz gelimi bir virüsün- sivillerle askeri hedefleri arasında ayrım gözetebilme kapasitesine sahip olması silahın yapısı gereği imkânsız olacağından ve kontrol edilemez sonuçlara yol açacağından silah bizatihi hukuka aykırı olacaktır.
Öte yandan hedefleme hukuku yapısı itibariyle caiz görülen bir silahın, çatışma esnasındaki kullanımının hukuka uygun olup olmadığını konu edinir. Hedefleme hukukunun üç temel payandası ayırt etme, orantılılık ve ihtiyatilik ilkeleridir. Bu prensipler vazgeçilemez nitelikte olup, SÇH’nin özünü oluşturur. Ayırt etme ilkesi, silahlı çatışma süresince siviller ve askeri hedeflerin arasında fark gözetilmesini ve saldırıların yalnızca askeri hedeflere yönlendirilmesini emreder.[8] Orantılılık prensibi ise “elde edilmesi beklenen somut ve doğrudan askeri avantaja kıyasla aşırı olarak kabul edilecek miktarda sivil halkta insan hayatının kaybına, yaralanmalara ve sivil nitelikteki mallara zarar verilmesine … sebep olması beklenebilecek”[9] saldırıları yasaklar. İhtiyatilik prensibinin gayesi de çatışmada sivillerin ve sivil malların zarar görmemesi için gerekli özenin gösterilerek hedeflemede tüm önlemlerin alınması ve orantısız saldırılardan kaçınılmasıdır.[10]
Geleneksel olarak hedef tespit, teşhis ve teyit süreci askeri operasyon esnasında elde bulunan gerçekleri, bağlamı ve değerleri takdir eden bir insan tarafından yürütüldüğünden otonom silahların yapay zekânın gelişimiyle birlikte bu ilkelere uygun kullanılıp kullanılamayacağı tartışılmaktadır. Mesela, eskiden genelde ulus devletler arasında gerçekleşen ve düzenli ordu birliklerinin var olduğu çatışmalarda ayırt etme ilkesini gözetmek daha kolayken, günümüz çatışmalarında aktörlerin ve yöntemlerin ani fakat derin değişimlerinden dolayı sivil-muharip kategorileri arasında ayrım yapmak oldukça zordur. Zira güncel çatışmalarda muharip taraflar kendilerini ayırt edici üniformaları veya işaretleri bulundurmaktan kaçınmaktadırlar.
Ayrıca uluslararası nitelikte olmayan silahlı çatışmalarda kişilerin askeri hedef haline gelmesi husumete doğrudan katılmaları koşuluna bağlı olduğundan yapay zekanın husumete katılma gibi muğlak ve bağlamda belirlenebilen bir durumu nasıl değerlendireceği net değildir. Örneğin, her tüfek taşıyan kişinin düşman olarak kabul edileceği ihtimalde söz konusu kişinin meşru hedef olup olmayacağı oldukça şüphelidir çünkü kişinin çatışma ile bağlantısı (belligerent nexus) olmayıp, tüfeği güvenliğin olmadığı bir çatışma ortamında bireysel savunma yapmak için taşıyor olma ihtimali mevcuttur. Aynı şekilde, orantılılık ilkesi yönünden saldırının ölçülü olup olmayacağının belirlenmesinde yapay zekanın nasıl bir değerlendirme yapacağı merak konusudur. Silahlı kuvvetlerin muhtemel ikincil zararı hesaplamak için kullandıkları ve makine algoritmalarına kodlanabilecek birtakım nicel metotlar olsa da orantılılık prensibi, “aşırılık” ve “askeri avantaj” kavramları açısından muhariplerin nitel ve göreceli değerlendirmeler yapmasını gerektirmektedir.
Tüm bu hususlar ve mevcut teknoloji göz önüne alındığında ölümcül tam otonom sistemlerin SÇH kapsamında hukuka uygun kullanılamayacağı muhtemeldir. Açık deniz, çölün uzak bir noktası veya askerden arındırılmış bölge gibi kontrollü sahalarda sadece cansız nesneleri hedef alan yani anti-materyal otonom silah sistemlerinin SÇH ilkelerine halel getirmeyeceği savunulabilir.[11] Fakat bu son derece kısıtlı alanlar dışında, sivil nüfusun bulunduğu ve muhariplerle temas ettiği bölgelerde SÇH’ye uygunluğun sağlanabilmesi için belirli bir derecede insan kontrolü gerekli olup, tam otonom bir sistem büyük olasılıkla hukuka aykırı sonuçlar doğuracaktır. Sivil nüfusun olmadığı sadece muhariplerin bulunduğu ihtimalde dahi anti-personel bir otonom sistem hors de combat[12] durumundaki muharipleri yani yaralanmasından, hastalığından veya bilincinin yerinde olmamasından dolayı hedef alınamayacak olanları ayırt etmede yetersiz kalacağından dolayı SÇH’ye uygun olmayacağı söylenebilir. Nitekim CCW Hükümetler Arası Uzman Grubu’nun 2019 yılında konsensusa vardığı ilkeler de insan kontrolünün varlığının gerekliliğini teyit etmektedir.[13]
- Kargu-2 Meselesi
Libya Uzman Paneli tarafından hazırlanan raporda Hafter güçlerine ait lojistik konvoyları ve geri çekilmekte olan kuvvetlerin Kargu-2 gibi tam otonom modda saldırmaya programlanmış öldürücü otonom silahlar tarafından hedef alındığı ve uzaktan müdahale edildiği iddia edilmişti. Başka silahlarla da kombine edilmiş otonom sistemlerin, Pantsir sistemlerini saf dışı bırakmada hayli etkili olduğu ve Hafter güçlerine önemli kayıplar verdirdiği belirtilmekteydi. Peki Kargu-2 raporda ve medyada sıklıkla yansıtıldığı üzere insanları avlamaya programlanmış gerçek bir katil robot mu? Kargu-2 yasaklanması gereken bir silah sistemi mi?
Üretici şirketin tanıtımına göre Kargu-2 gezinen mühimmat veya kamikaze drone olarak bilinen “yüksek riskli, kompleks çatışma bölgelerindeki görüş içi ve ötesi hedeflerin tespit ve teyidini sağlayarak kullanıcı personele keşif, gözetleme, istihbarat ve hassas vuruş”[14] sağlamak için kullanılan bir otonom sistemdir. Bu sistem, makine öğrenimi kabiliyetiyle nesne tanımlaması yapabilmekte ve anti-personel olarak da kullanılabiliyor. Raporda iddia edildiği gibi tamamen otonom olduğu üretici tarafından kabul ediliyor fakat burada çok önemli bir nüans var. Üretici otonomi kelimesini icra edilen spesifik görev bağlamında kullanırken, BM uzmanlarının aynı kavramı insan-makine etkileşimine referansla kullandığı görülüyor. Oysaki üreticisi, Kargu-2’nin hedeflemede döngü içinde insan prensibiyle çalıştığını söylüyor ve tam otonom özelliklerin çatışma alanında navigasyon becerilerine ait olduğunu belirtiyor. Keza, birtakım uzmanlarca[15] da dikkat çekildiği üzere raporda Kargu-2’nin hedefleme esnasında insanı döngü dışı bırakarak kullanıldığına dair bir kanıt bulunmuyor.
Silah hukuku bakımından Kargu-2’nin kullanıldığı ve tasarlandığı amaç dikkate alınarak gerekli yapay zekâ unsurlarıyla donatıldığı ve parametrelerle sınırlandığı durumda ayrım gözetebilen bir silah olacağı söylenebilir. Nitekim uluslararası hukuk uygulaması da bu sonucu destekler niteliktedir. Uluslararası Adalet Divanı, Nükleer Silah Tehdidi ve Kullanımının Hukukiliği Danışma Görüşü’nde silahın kullanılacağı bağlamın önemini vurgulamış ve nükleer silahların dahi kullanımının her zaman hukuka aykırı olacağını kanıtlayan yeterli temellendirmenin olmadığını ifade etmiştir.[16]
Hedefleme hukuku bakımından ise Kargu-2’nin yapay zekâ tarafından hedefe saldırı önerisini onaylayacak veya yapay zekanın verdiği kararı denetleyebilecek bir insanın döngüde olduğu durumda SÇH prensiplerine kural olarak uygun kullanılabileceği söylenebilir. Kargu-2’nin kamikaze drone olduğu düşünülürse, infilak edeceği ana kadar hedefin tespiti ve teşhisi için uzaktaki operatöre eş zamanlı görüntü sağlayabildiğinden ve operatör son ana kadar duruma müdahale edebildiğinden kullanımının ayırt etme ve ihtiyatilik ilkelerine uygunluğu pekiştirebileceği düşünülebilir. Aynı şekilde, havan topu gibi daha uzak menzilden kullanılan ve patlayıcı şiddeti yüksek silahların siviller ve sivil objeler üzerinde ikincil zararlar bıraktığı hususu göz önüne alındığında[17], bir asker gibi hayatını koruma kaygısı olmayan Kargu-2 gibi bir kamikaze drone, hedefin en yakınına yaklaşarak, oluşacak tali zararları önemli ölçüde azaltabilir ve orantılılık prensibine uygunluğu güçlendirebilir.
Sonuç olarak, BM Libya Uzmanlar Paneli Raporu’nun Kargu-2’yi ölümcül tam otonom sistem olarak sınıflandırması teknik açıdan dayanaktan yoksun bir varsayım üzerine inşa edilmiş olarak görünüyor. Ulrike Franke gibi bazı drone politikaları uzmanlarınca eleştirildiği üzere[18], rapor kapsamında özellikleri, çalışma modu ve neticeleri tespit edilemeyen Kargu-2 hakkında uluslararası medya sitelerinde şaşırtıcı derecede yaygın olan ilk kez bir insanın “katil robot” tarafından öldürülmüş olabileceği iddiasının topladığı ilginin sebebi de açık değil. Kargu-2’nin sahip olduğu otonominin niteliği belirtilmeden ve silahlı çatışma hukuku ilkelerine ne derece uygun davranıp davranamayacağı irdelenmeden raporda varılan kanının doğru olmayan bir algı oluşturduğu söylenebilir.
Arş. Gör. Beyza Arslan
HUKUKÇULAR DERNEĞİ
ULUSLARARASI HUKUK KOMİSYONU
[1] Letter dated 8 March 2021 from the Panel of Experts on Libya Established pursuant to Resolution 1973 (2011) addressed to the President of the Security Council, S/2021/229 <https://digitallibrary.un.org/record/3905159?ln=en>
[2] https://www.theverge.com/2021/6/3/22462840/killer-robot-autonomous-drone-attack-libya-un-report-context
[3] https://www.stopkillerrobots.org/
[4] https://futureoflife.org/2016/02/09/open-letter-autonomous-weapons-ai-robotics/
[5] Scharre and Horowitz “An Introduction to Autonomy in Weapon Systems” 2015
[6] US Department of Defense Directive, 3000.09
[7] https://www.icrc.org/en/doc/home/languages/turkish/files/sozlesmeleri-protokolleri-conventions-protocols.pdf
[8] ibid Madde 48
[9] Madde 51/5 (b)
[10] Madde 57
[11] Schmitt and Thurner “Out of the Loop”: Autonomous Weapon Systems and the Law of Armed Conflict” Harvard NSJ 2013
[12] Madde 41
[13] Background on LAWS in the CCW. <https://www.un.org/disarmament/the-convention-on-certain-conventional-weapons/background-on-laws-in-the-ccw/>
[14] https://www.stm.com.tr/tr/cozumlerimiz/otonom-sistemler/kargu
[15] https://twitter.com/jackmcd83/status/1397873674431180800
[16] ICJ, Legality of the Threat or Use of Nuclear Weapons para 95
[17] https://tr.sputniknews.com/20210819/taktik-iha-kargu-2nin-otonom-ozelligi-tehlike-yaratiyor-mu-1048159844.html
[18] https://twitter.com/RikeFranke/status/1399670512784187392