Site icon HaberSeçimiNet

Katil Robotlar Bilim Kurgu Değildir. Onları Yasaklamak İçin Bir Baskı Büyüyor.

Anlaşılmaz bir Birleşmiş Milletler toplantısı gibi görünebilir, ancak bu hafta Cenevre’de yapılan toplantı yapay zeka, askeri strateji, silahsızlanma ve insancıl hukuk uzmanları tarafından dikkatle takip edildi.

İlginin nedeni? Katil robotlar – yapay beyinlerle saldırmak ve öldürmek arasında kendi başlarına karar veren insansız hava araçları, silahlar ve bombalar – ve eğer varsa, bunları düzenlemek veya yasaklamak için ne yapılması gerektiği.

Bir zamanlar “Terminatör” serisi ve “RoboCop” gibi bilim kurgu filmlerinin alanı, daha teknik olarak Ölümcül Otonom Silah Sistemleri olarak bilinen katil robotlar, çok az gözetim ile hızlandırılmış bir hızda icat edildi ve test edildi. Bazı prototipler gerçek çatışmalarda bile kullanıldı.

Bu makinelerin evrimi, barut ve nükleer bombaların icadına benzer şekilde, savaşta potansiyel olarak sismik bir olay olarak kabul edilir.

Bu yıl, ilk kez, Belirli Konvansiyonel Silahlar Sözleşmesi veya C.C.W. adlı bir anlaşmaya dahil olan 125 ulusun çoğunluğu, katil robotlara kısıtlama getirmek istediklerini söyledi. Ancak bu silahları geliştiren üyeler, özellikle de ABD ve Rusya, onlara karşı çıktılar.

Grubun konferansı Cuma günü, herkes için kabul edilebilir olası önlemleri dikkate alma konusunda yalnızca belirsiz bir açıklama ile sona erdi. Bir silahsızlanma grubu olan Katil Robotları Durdurma Kampanyası, sonucun “çok kısa” olduğunu söyledi. ”

Bazı Konvansiyonel Silahlara İlişkin Sözleşme Nedir?

Bazen İnsanlık Dışı Silahlar Sözleşmesi olarak da bilinen CCW, yanıcı patlayıcılar, kör edici lazerler ve savaşçılar ve siviller arasında ayrım yapmayan bubi tuzakları gibi gereksiz, haksız ve ayrım gözetmeyen acılara neden olduğu düşünülen silahları yasaklayan veya kısıtlayan bir kurallar çerçevesidir. . Sözleşmenin katil robotlar için herhangi bir hükmü yoktur.

Cuma günü Cenevre’de toplanan Bazı Konvansiyonel Silahlara İlişkin Sözleşme. Kredi. . . Fabrice Coffrini/Agence France-Presse — Getty Images

Katil robotlar tam olarak nedir?

Görüşler kesin bir tanım üzerinde farklılık gösterir, ancak bunlar geniş ölçüde insan müdahalesi olmadan veya çok az müdahaleyle karar veren silahlar olarak kabul edilir. Robotik, yapay zeka ve görüntü tanıma alanındaki hızlı gelişmeler bu tür silahlanmaları mümkün kılıyor.

Amerika Birleşik Devletleri’nin Afganistan, Irak ve başka yerlerde yaygın olarak kullandığı insansız hava araçları, robot olarak kabul edilmiyor çünkü bunlar, hedefleri seçen ve ateş edip etmemeye karar veren insanlar tarafından uzaktan çalıştırılıyor.

Neden çekici olarak kabul ediliyorlar?

Savaş planlayıcılarına, silahlar, ne zaman saldıracağına bağımsız olarak karar veren pilotsuz dronlar ve sürücüsüz tanklar gibi otonom sistemlere daha fazla savaş alanı sorumluluğu vererek, askerleri tehlikeden uzak tutma ve bir insandan daha hızlı kararlar alma vaadi sunuyor.

İtirazlar nelerdir?

Eleştirmenler, teknolojik gelişmişlik ne olursa olsun, ölümcül karar verme yetkisini makinelere atamanın ahlaki olarak tiksindirici olduğunu savunuyorlar. Bir makine bir yetişkini bir çocuktan, bazukalı bir savaşçıyı süpürgeli bir sivilden, düşman bir savaşçıyı yaralı veya teslim olan bir askerden nasıl ayırt edebilir?

Uluslararası Kızılhaç Komitesi başkanı ve katil robotların açık sözlü bir muhalifi olan Peter Maurer, “Temelde, otonom silah sistemleri, yaşam ve ölümle ilgili insan kararlarını sensör, yazılım ve makine süreçleriyle değiştirme konusunda toplum için etik kaygılar uyandırıyor” dedi. Cenevre konferansı.

Konferanstan önce, İnsan Hakları İzleme Örgütü ve Harvard Hukuk Fakültesi Uluslararası İnsan Hakları Kliniği, her zaman insan kontrolünü gerektiren yasal olarak bağlayıcı bir anlaşmaya doğru adımlar atılması çağrısında bulundu.

Gruplar, tavsiyelerini desteklemek için bir brifing yazısında, “Robotlar, insanlara insanca davranmak için gerekli olan şefkat, empati, merhamet ve muhakeme yeteneğinden yoksundur ve insan yaşamının doğasında var olan değeri anlayamazlar” diye savundular.

2019’da Berlin’de “Katil Robotları Durdurma Kampanyası” protestosu. Kredi. . . Annegret Hilse/Reuters

Diğerleri, otonom silahların savaş riskini azaltmak yerine tam tersini yapabileceğini söyledi – düşmanlara kendi askerlerine yönelik riskleri en aza indiren zarar verme yolları sağlayarak.

Yeni Zelanda’nın silahsızlanma bakanı Phil Twyford, “Seri üretilen katil robotlar, insanları öldürme zincirinden çıkararak ve kontrollerde herhangi bir insan olmadan bir insan hedefi vurabilecek makineleri serbest bırakarak savaş eşiğini düşürebilir” dedi.

Cenevre konferansı neden önemliydi?

Konferans, silahsızlanma uzmanları tarafından, C.C.W.

Katil robotlardan kaynaklanan tehditleri azaltmaya yönelik zorlukları ve olası yaklaşımları belirlemesi istenen bir grup uzman tarafından yıllarca süren tartışmaların doruk noktasıydı. Ancak uzmanlar, temel sorular üzerinde anlaşmaya bile varamadılar.

Yeni bir anlaşmanın muhalifleri ne diyor?

Rusya gibi bazıları, sınırlarla ilgili herhangi bir kararın oybirliğiyle alınması gerektiğinde ısrar ediyor – aslında muhaliflere veto veriyor.

Amerika Birleşik Devletleri, mevcut uluslararası yasaların yeterli olduğunu ve otonom silah teknolojisini yasaklamanın erken olacağını savunuyor. Konferansa ABD’nin baş delegesi Joshua Dorosin, katil robotların kullanımı için bağlayıcı olmayan bir “davranış kuralları” önerdi – silahsızlanma savunucularının geciktirme taktiği olarak reddettiği bir fikir.

Amerikan ordusu, Lockheed Martin, Boeing, Raytheon ve Northrop Grumman dahil olmak üzere en büyük savunma müteahhitleriyle çalışarak yapay zekaya büyük yatırım yaptı. Silah sistemlerine karşıtların yaptığı araştırmalara göre, çalışma, radyo frekansına dayalı hareketli hedefleri tespit eden uzun menzilli füzeler, bir hedefi belirleyip saldırabilen insansız hava araçları ve otomatik füze savunma sistemleri geliştirme projelerini içeriyor.

2018’de Afganistan’da bir ABD Hava Kuvvetleri Reaper uçağı. Bu tür insansız uçaklar gelecekte otonom ölümcül silahlara dönüştürülebilir. Kredi. . . Shah Marai/Agence France-Presse — Getty Images

Brüksel’deki Güvenlik, Diplomasi ve Strateji Merkezi’nde gelişen askeri güvenlik teknolojisi konusunda uzman olan Maaike Verbruggen, yapay zekanın karmaşıklığı ve çeşitli kullanımlarının düzenlemeyi nükleer silahlar veya kara mayınlarından daha zor hale getirdiğini söyledi. Farklı ülkelerin neler inşa ettiği konusunda şeffaflık eksikliğinin askeri liderler arasında ayak uydurmaları gereken “korku ve endişe” yarattığını söyledi.

Bu konuda doktora yapmakta olan Bayan Verbruggen, “Başka bir ülkenin ne yaptığına dair bir fikir edinmek çok zor” dedi. “Çok fazla belirsizlik var ve bu askeri yenilikleri tetikliyor. ”

Uluslararası Stratejik Araştırmalar Enstitüsü’nde araştırma görevlisi olan Franz-Stefan Gady, “otonom silah sistemleri için silahlanma yarışının halihazırda devam ettiğini ve yakın zamanda iptal edilmeyeceğini söyledi. ”

Savunma teşkilatında katil robotlarla ilgili bir çatışma var mı?

Evet. Bay Gady, teknoloji daha da ilerlese bile, hata korkusu nedeniyle savaşta otonom silahları kullanma konusunda isteksizlik olduğunu söyledi.

“Askeri komutanlar otonom silah sistemlerinin yargısına güvenebilir mi? Burada şu anda cevap açıkça ‘hayır’ ve yakın gelecekte de öyle kalacak” dedi.

Otonom silahlarla ilgili tartışmalar Silikon Vadisi’ne sıçradı. 2018’de Google, binlerce çalışanının, drone hedeflerini seçmek için kullanılabilecek görüntüleri yorumlamak için yapay zeka kullanan bir program üzerindeki çalışmalarını protesto eden bir mektup imzalamasının ardından Pentagon ile olan sözleşmeyi yenilemeyeceğini söyledi. Şirket ayrıca teknolojisinin silah ve gözetleme için kullanılmasını yasaklayan yeni etik kurallar oluşturdu.

Diğerleri ABD’nin rakipleriyle rekabet edecek kadar ileri gitmediğine inanıyor.

Ekim ayında, Hava Kuvvetleri eski yazılım şefi Nicolas Chaillan, Financial Times’a, Amerikan ordusunda, özellikle yapay zeka kullanımında, zayıf teknolojik ilerleme olarak gördüğü için istifa ettiğini söyledi. Politika yapıcıların etikle ilgili sorularla yavaşladığını, Çin gibi ülkeler ise ilerlemeye devam ettiğini söyledi.

Otonom silahlar nerelerde kullanıldı?

Doğrulanmış pek çok savaş alanı örneği yok, ancak eleştirmenler teknolojinin potansiyelini gösteren birkaç olaya işaret ediyor.

Mart ayında Birleşmiş Milletler müfettişleri, Libya’da hükümet destekli güçler tarafından milis savaşçılarına karşı “ölümcül bir özerk silah sistemi” kullanıldığını söyledi. Rapora göre, bir Türk savunma müteahhiti tarafından yapılan Kargu-2 adlı bir drone, bir roket saldırısından kaçarken savaşçıları takip etti ve saldırdı, ancak bu insansız hava araçlarını herhangi bir insanın kontrol edip etmediğini belirsiz bıraktı.

Dağlık Karabağ’daki 2020 savaşında Azerbaycan, atanan bir hedefin sinyalini algılayana kadar havada dolaşan saldırı insansız hava araçları ve füzelerle Ermenistan ile savaştı.

Bir Ermeni yetkili, geçen yıl Azerbaycan güçleriyle yaşanan çatışmalarda düşürüldüğü bildirilen insansız hava araçlarını gösteriyor. Kredi. . . Karen Minasyan/Agence France-Presse — Getty Images

Şimdi ne olacak?

Pek çok silahsızlanma savunucusu, konferansın sonucunun, kara mayınlarını ve misket bombalarını yasaklayanlar gibi, önümüzdeki birkaç yıl içinde yeni bir anlaşma için zorlama kararlılığı olarak tanımladıkları şeyi sertleştirdiğini söyledi.

Hollanda merkezli bir barış savunuculuğu grubu olan PAX’ta otonom silah uzmanı olan Daan Kayser, konferansın katil robotlar üzerinde müzakere etmeyi bile kabul etmemesinin “C.C.W.’nin işe uygun olmadığının gerçekten açık bir işareti olduğunu söyledi. ”

Yapay zeka uzmanı ve Uluslararası Robot Silahlarının Kontrolü Komitesi başkanı Noel Sharkey, toplantının yeni bir anlaşmanın daha fazla C.C.W. müzakerelerine tercih edilebileceğini gösterdiğini söyledi.

“Odada bir aciliyet duygusu vardı,” dedi, “hareket olmazsa, bu koşu bandında kalmaya hazır değiliz. ”

John Ismay raporlamaya katkıda bulundu.

New York Times haberinden çevrildi ve haberleştirildi.

Exit mobile version