Twitter tarafından yayınlanan yeni analiz, firmanın otomatik fotoğraf kırpma algoritmasının etnik köken ve cinsiyet temelinde ayrımcılık yaptığını doğruladı.

Siyah bir adam ve beyaz bir kadının yer aldığı bir resimle sunulsa, algoritma kadına yüzde 64 ve erkeğe yüzde 36 göstermeyi seçecektir. Twitter araştırmacıları bulundu.

Kadın ve erkek karşılaştırmalarında kadın lehine yüzde 8’lik bir fark vardı. Algoritma ayrıca siyahlar yerine beyazların görüntülerini göstermeye yönelik genel olarak yüzde 4’lük bir önyargı gösterdi.

Yanıt olarak sosyal ağ, özelliği kaldıracağını ve kullanıcıların tweetlere eklenen görüntülerin “gerçek bir önizlemesini” görmelerini sağlayacak yeni araçlarla değiştireceğini söyledi.

Twitter’ın Yazılım Mühendisliği Direktörü Rumman Chowdhury, bir blog yazısında, “Sonuçlarımızdan biri, Twitter’daki her şeyin bir algoritma için iyi bir aday olmadığı ve bu durumda, bir görüntünün nasıl kırpılacağının en iyi insanlar tarafından verilen bir karar olduğu.” Bulgular.

Algoritmanın erkek ve dişi temsil eden bedenlerin farklı kısımlarına odaklanma eğiliminde olup olmadığını keşfetmeyi amaçlayan “erkek bakışları” için benzer bir test, önyargı kanıtı bulamadı.

Bilgisayarla görme algoritmalarının daha koyu ten rengine sahip insanları daha şiddetli ve hayvanlara daha yakın olarak göstererek eski ırkçı mecazlar üzerine inşa ettiği bilinmektedir.

Nicholas Kayser-Bril

Veri muhabiri, Algorithmwatch

Berlin merkezli Algorithmwatch’tan Nicholas Kayser-Bril’e göre, yüz tanıma gibi teknolojilere uygulandığında, önyargılı algoritmaların sonuçları haksız bir şekilde kırpılmış bir fotoğrafın çok ötesine ulaşabilir.

“Bilgisayarla görme algoritmalarının daha koyu ten rengine sahip insanları daha şiddetli ve hayvanlara daha yakın olarak betimlediği biliniyor, eski ırkçı mecazlar üzerine inşa ediliyor. Bu tür sistemler anormal veya tehlikeli durumları tespit etmek için kullanıldığında, bunun ırkçı insanlar üzerinde doğrudan bir etkisi olması muhtemeldir , zaten Avrupa’nın pek çok yerinde olduğu gibi, “dedi.

Twitter’ın algoritması nasıl çalışır?

Yakın zamana kadar, Twitter’da yayınlanan görüntüler, insan gözünün görüntünün belirli bir kısmına çekilme olasılığının bir ölçüsü olan “belirginliğe” odaklanmak için eğitilmiş bir algoritma tarafından otomatik olarak kırpılıyordu.

Bir görüntünün yüksek dikkat çeken alanları tipik olarak insanları, metni, sayıları, nesneleri ve yüksek kontrastlı arka planları içerir.

Ancak Kayser-Bril, Twitter tarafından kullanılana benzer bir Makine Öğrenimi (ML) algoritmasının yalnızca eğitildiği bilgiler kadar tarafsız olduğunu açıkladı.

Euronews’e “Bir Makine Öğrenimi algoritması, belirli gruplar veya belirli özellikler hakkında veri içermeyen bir veri seti üzerinde eğitilirse, önyargılı sonuçlar verecektir” dedi.

“Adil bir veri seti oluşturmak, ilk etapta adil olmayan bir topluma uygulanacaksa imkansızdır. Bu nedenle, bir modelin optimize ettiği şey, eğitildiği veri setinden daha önemlidir.

“Yapay Zeka toplulukları, algoritmaları için ölçütler kullanır; bunlar çok nadiren adaletle ilişkilidir”.

Twitter’ın 2021 katılım ve çeşitlilik raporu, dünya çapındaki çalışanlarının yüzde 55,5 erkek, yüzde 43,6 kadın ve yüzde birden az ikili olmadığını gösterdi.

Şirketin etnik köken istatistiklerini yayınladığı tek bölge olan Amerika Birleşik Devletleri’ndeki Twitter çalışanlarına ait rakamlar, çalışanların yüzde 7,8’inin siyah olduğunu ve yalnızca teknik rollerde çalışan çalışanlar hesaba katıldığında yüzde 6,2’ye düştüğünü gösteriyor. .

Twitter’ın kırpma algoritmasıyla ilgili sorun, Kanadalı doktora öğrencisi Colin Madland, iki adamın resimleriyle sunulduğunda, meslektaşı – siyah bir adam – yerine sürekli olarak onu göstermeyi seçeceğini fark ettiğinde, geçen yıl büyük ilgi gördü.

Madland’ın keşif hakkındaki tweet’i viral hale geldi ve diğer kullanıcıları, algoritmanın hangisini göstermeyi seçeceğini görmek için birden fazla kişiyi içeren çok uzun görüntüler göndermeye teşvik etti.

O sırada Twitter sözcüsü Liz Kelley, şirketin “modeli göndermeden önce önyargı testi yaptığını ve testlerimizde ırk veya cinsiyet önyargısına dair kanıt bulmadığını” söyledi ve Twitter’ın “yapacak daha fazla analiz” yaptığının açık olduğunu ekledi.

Euronews’in bir haberinden çevrildi ve haberleştirildi.

About Post Author

HaberSeçimiNet sitesinden daha fazla şey keşfedin

Okumaya devam etmek ve tüm arşive erişim kazanmak için hemen abone olun.

Okumaya Devam Edin