Site icon HaberSeçimiNet

ABD Paneli: Polislikteki Teknoloji Irksal Önyargıyı Güçlendirebilir

CENEVRE – Amerika Birleşik Devletleri’ndeki polis departmanları, kanun yaptırımını daha doğru, verimli ve etkili hale getireceği teorisiyle gözetleme ve suçu tahmin etmek için dijital teknoloji kullanımına yöneldi. Birleşmiş Milletler insan hakları uzmanları Perşembe günü, endişe verici gerçek, onların ırksal önyargı ve istismarı pekiştirme riski olduğu konusunda uyardı.

18 üyeli etkili bir panel olan Birleşmiş Milletler Irk Ayrımcılığının Ortadan Kaldırılması Komitesi, karar vermede yapay zekanın “bazı alanlarda daha fazla etkinliğe katkıda bulunabileceğini” kabul etti, ancak yüz tanıma ve diğer algoritma odaklı kullanımın artan kullanımının kolluk kuvvetleri ve göçmenlik kontrolüne yönelik teknolojiler, ırkçılığı ve yabancı düşmanlığını derinleştirme riski taşır ve insan hakları ihlallerine yol açabilir.

Ayrımcı kanun yaptırımlarına maruz kalan toplulukların polise olan güvenini kaybetmesi ve daha az işbirliği yapması nedeniyle, bu teknolojileri kullanmanın ters etki yapabileceği konusunda uyardı.

Panelin bulgularını ve tavsiyelerini taslak haline getirme tartışmalarına liderlik eden Dr. Verene Shepherd, “Büyük veri ve A. I. araçları, halihazırda var olan önyargıları yeniden üretip pekiştirebilir ve daha da ayrımcı uygulamalara yol açabilir” dedi.

Bir telefon röportajında ​​“Makineler yanlış olabilir” diye ekledi. “Bunların yanlış olduğu kanıtlandı, bu nedenle kanun uygulayıcılarda algoritmik profil oluşturmanın ayrımcı sonuçları konusunda derinden endişeliyiz. ”

Panelin bulguları ve tavsiyeleri, iki yıllık araştırmanın sonucudur, ancak küresel Black Lives Matter protestolarının patlaması ve Covid-19 salgınının etkisindeki ırk ayrımcılığının derinleştirilmesine yönelik korkuların patlamasıyla daha fazla aciliyet kazandılar.

Panel, bu teknolojileri yönlendiren algoritmaların, örneğin ırksal olarak önyargılı polislik uygulamalarını yansıtabilecek bir mahalle hakkındaki tarihsel tutuklama verileri dahil olmak üzere önyargılı verilerden yararlanabileceği tehlikesine dikkat çekti. “Bu tür veriler, aynı mahallede aşırı polislik riskini artıracak ve bu da daha fazla tutuklamaya yol açarak tehlikeli bir geri bildirim döngüsü yaratabilir” dedi.

Panelin uyarıları, sosyal refah dağıtımından göçü kontrol eden “dijital sınırlar” a kadar genişleyen bir hükümet yelpazesinde yapay zekanın büyük ölçüde düzensiz kullanımı konusunda insan hakları kurumları arasında derinleşen alarmı artırıyor.

Yoksulluk hakkında rapor veren bir insan hakları uzmanı olan Philip G. Alston, geçen yıl Birleşmiş Milletler Genel Kurulu’na yaptığı açıklamada, hükümetlerin “zombielike dijital refah distopisine tökezlemekten” kaçınmak için ani bir yön değişikliğine ihtiyaçları olduğunu söyledi. insan haklarına uyumu sağlamak için yapay zeka dahil dijital teknolojilerin düzenlenmesi. Sosyal refahın sağlanmasında giderek baskın bir rol oynayan özel şirketler, “neredeyse insan haklarından arınmış bir bölgede faaliyet gösteriyor. ”

Geçen ay, ırkçılığın çağdaş biçimlerini izleyen ABD’li uzman, “hükümetler ve devlet dışı aktörlerin, ortaya çıkan dijital teknolojileri, sınır ve göçmenlik uygulaması bağlamında benzersiz bir şekilde deneysel, tehlikeli ve ayrımcı şekillerde geliştirip uyguladıklarına dair endişeleri dile getirdi. ”

Uzman E. Tendayi Achiume, Frontex olarak da adlandırılan Avrupa Sınır ve Sahil Güvenlik Ajansı’nın, Avrupa’ya ulaşmaya çalışan göçmen ve mültecilerin gemilerinin gözetlenmesi ve engellenmesi için Akdeniz ve Ege’de pilotsuz askeri sınıf dronları test ettiğini bildirdi.

Irk ayrımcılığının ortadan kaldırılmasına ilişkin uluslararası sözleşmeye uymaları için devletleri izlemek ve sorumlu tutmakla görevli olan ABD ırkçılıkla mücadele paneli, söz konusu devletlerin ırksal önyargılarla mücadele tedbirlerini yasallaştırması ve şikayetleri ele almak için bağımsız mekanizmalar oluşturması gerekiyor. Profil oluşturmada kullanılan algoritmaların tasarımında ve uygulamasında şeffaflık ihtiyacını vurguladı.

Grup, “Bu, bu tür sistemlerin kullanımının kamuya açıklanmasını ve sistemlerin nasıl çalıştığına, hangi veri setlerinin kullanıldığına ve insan hakları zararlarını önleyen hangi önlemlerin alındığına ilişkin açıklamaları içerir” dedi.

Bayan Shepherd, panelin tavsiyelerinin sözleşmeyi imzalayan 182 eyaletten oluşan küresel bir izleyici kitlesini hedeflediğini, ancak son iki yılda aldığı şikayetlerin çoğunun Amerika Birleşik Devletleri’nden geldiğini söyledi ve bulguları, Amerikan dijital tarafından dile getirilen endişeleri artırdı. hak aktivistleri.

Rutgers Hukuk Fakültesi’nde misafir akademisyen ve araştırma politikası direktörü olan Rashida Richardson, Amerikan polis departmanlarının, kullandıkları teknolojilerin sayısının veya türünün ayrıntılarını paylaşmaya şiddetle direndiklerini ve bunları ne veya nasıl kullandıklarına dair herhangi bir sorumluluk gerektiren kısıtlı bir düzenleme olduğunu söyledi. New York Üniversitesi AI Now Enstitüsü’nde.

Nadir bir istisna, New York Şehir Konseyi tarafından yıllarca süren tartışmalardan sonra ve ceza adaleti ve polis reformu talep eden protestoların ortasında Haziran ayında kabul edilen Teknolojilerin Kamu Gözetimi Yasasıdır. Bu yasa, New York Polis Departmanının kullandığı teknolojilerin yıllık hesabını yayınlamasını gerektiriyor.

Bayan Richardson bir telefon röportajında, “Polis departmanlarının aynı nedenle onları kaç polis departmanının kullandığını bilmiyoruz, ayrıca çoğu polis departmanının bu teknolojilerin anayasal uyumluluğunu sağlamak için yürürlükte olan politikaları olup olmadığını bilmiyoruz” dedi. “Bu yüzden işe yarayıp yaramadıklarını bilmiyoruz ve onlar hakkında ancak bir zarar veya risk tespit edildikten sonra öğreniyoruz. ”

Bayan Richardson, “Tahmine dayalı polisliğin bu kara kutusunu iyileştirebilecek tek şey, şeffaflık yasalarının çoğalmasıdır” dedi. “Umarım, sorunun hükümet veya yarı hükümet organları tarafından daha fazla tanınması, reform ihtiyacına daha fazla aciliyet getirebilir. “

New York Times

Exit mobile version