Bir Makine Ahlakı Öğrenebilir mi?
Seattle’daki Allen Yapay Zeka Enstitüsü adlı yapay zeka laboratuvarındaki araştırmacılar, geçen ay ahlaki kararlar vermek için tasarlanmış yeni …
Seattle’daki Allen Yapay Zeka Enstitüsü adlı yapay zeka laboratuvarındaki araştırmacılar, geçen ay ahlaki kararlar vermek için tasarlanmış yeni bir teknolojiyi açıkladılar. Eski Yunanlıların başvurduğu dini kehanetten sonra buna Delphi adını verdiler. Herkes Delphi web sitesini ziyaret edebilir ve etik bir kararname isteyebilir.
Wisconsin-Madison Üniversitesi’nde psikolog olan Joseph Austerweil, birkaç basit senaryo kullanarak teknolojiyi test etti. Delphi, bir başkasını kurtarmak için birini öldürmesi gerekip gerekmediğini sorduğunda, yapmaması gerektiğini söyledi. 100 kişiyi kurtarmak için bir kişiyi öldürmenin doğru olup olmadığını sorduğunda, yapması gerektiğini söyledi. Sonra 101 kişiyi kurtarmak için bir kişiyi öldürmesi gerekip gerekmediğini sordu. Bu sefer Delphi yapmaması gerektiğini söyledi.
Görünüşe göre ahlak, insanlar için olduğu kadar bir makine için de buruk.
Son birkaç hafta içinde üç milyondan fazla ziyaret alan Delphi, bazılarının modern AI sistemlerinde büyük bir sorun olarak gördüğü sorunu çözme çabasıdır: Bunlar, onları yaratan insanlar kadar kusurlu olabilirler.
Yüz tanıma sistemleri ve dijital asistanlar, kadınlara ve beyaz olmayan insanlara karşı önyargı gösteriyor. Facebook ve Twitter gibi sosyal ağlar, yapay zekanın yaygın olarak kullanılmasına rağmen nefret söylemini kontrol edemiyor. Mahkemeler, şartlı tahliye ofisleri ve polis departmanları tarafından kullanılan algoritmalar, keyfi görünebilecek şartlı tahliye ve cezalandırma önerilerinde bulunur.
Giderek artan sayıda bilgisayar bilimcisi ve etik uzmanı bu sorunları çözmek için çalışıyor. Ve Delphi’nin yaratıcıları, herhangi bir çevrimiçi hizmete, robota veya araca kurulabilecek etik bir çerçeve oluşturmayı umuyor.
Allen Enstitüsü araştırmacısı ve projeyi yöneten Washington Üniversitesi bilgisayar bilimi profesörü Yejin Choi, “Bu, yapay zeka sistemlerini daha etik olarak bilgilendirilmiş, sosyal olarak bilinçli ve kültürel olarak kapsayıcı hale getirme yolunda ilk adım” dedi.
Delphi, sırayla büyüleyici, sinir bozucu ve rahatsız edici. Ayrıca, herhangi bir teknolojik yaratımın ahlakının, onu inşa edenlerin bir ürünü olduğunu hatırlatır. Soru şu: Dünyanın makinelerine ahlakı kim öğretecek? A.I. araştırmacıları? Ürün yöneticileri? Mark Zuckerberg? Eğitimli filozoflar ve psikologlar mı? Hükümet düzenleyicileri?
Bazı teknoloji uzmanları, önemli ve zorlu bir teknolojik araştırma alanını keşfettikleri için Dr. Choi ve ekibini alkışlarken, diğerleri ahlaki bir makine fikrinin saçma olduğunu savundu.
İsviçre’deki bir üniversite olan ETH Zürich’te yapay zeka araştırmacısı olan ve çevrimiçi olarak ilk günlerinde Delphi’ye rastlayan Ryan Cotterell, “Bu, teknolojinin pek iyi yaptığı bir şey değil” dedi.
Delphi, yapay zeka araştırmacılarının beyindeki nöronlar ağı üzerinde gevşek bir şekilde modellenen matematiksel bir sistem olan sinir ağı dediği şeydir. Akıllı telefonunuza konuştuğunuz komutları tanıyan ve kendi kendine giden arabalar otoyolda hızlandıkça yayaları ve sokak işaretlerini tanımlayan aynı teknolojidir.
Bir sinir ağı, büyük miktarda veriyi analiz ederek becerileri öğrenir. Örneğin, binlerce kedi fotoğrafındaki desenleri tam olarak belirleyerek bir kediyi tanımayı öğrenebilir. Delphi, gerçek canlı insanlar tarafından 1.7 milyondan fazla etik yargıyı analiz ederek ahlaki pusulasını öğrendi.

Seattle’daki Allen Yapay Zeka Enstitüsü’nden Yejin Choi, Delphi’nin geliştirilmesine öncülük etti. Kredi. . . The New York Times için Jovelle Tamayo
Web sitelerinden ve diğer kaynaklardan milyonlarca günlük senaryo topladıktan sonra, Allen Enstitüsü bir çevrimiçi hizmette çalışanlardan – Amazon gibi şirketlerde dijital işler yapmak için para alan sıradan insanlardan – her birini doğru veya yanlış olarak tanımlamalarını istedi. Sonra verileri Delphi’ye beslediler.
Sistemi açıklayan bir akademik makalede, Dr. Choi ve ekibi, bir grup insan yargıcın -yine dijital çalışanlar- Delphi’nin etik yargılarının yüzde 92’ye kadar doğru olduğunu düşündüklerini söyledi. Açık internete sunulduktan sonra, birçok kişi sistemin şaşırtıcı derecede akıllı olduğu konusunda hemfikirdi.
San Diego’daki California Üniversitesi’nden bir filozof olan Patricia Churchland, “kişinin vücudunu bilime bırakmasının” veya hatta “kişinin vücudunu bilime bırakmasının” doğru olup olmadığını sorduğunda, Delphi doğru olduğunu söyledi. Delphi, “tecavüzle suçlanan bir adamı, bir fahişenin tanıklığına dayanarak mahkum etmenin” doğru olup olmadığını sorduğunda, bunun doğru olmadığını söyledi – en hafif tabiriyle, tartışmalı bir yanıt. Yine de, bir insan etik uzmanının bu tür beyanlarda bulunmadan önce daha fazla bilgi isteyeceğini bilmesine rağmen, yanıt verme yeteneğinden biraz etkilenmişti.
Diğerleri sistemi feci şekilde tutarsız, mantıksız ve saldırgan buldu. Bir yazılım geliştiricisi Delphi’ye rastladığında, arkadaşlarına ve ailesine yük olmamak için sisteme ölmesi gerekip gerekmediğini sordu. Yapması gerektiğini söyledi. Bu soruyu şimdi Delphi’ye sorun ve programın güncellenmiş versiyonundan farklı bir cevap alabilirsiniz. Düzenli kullanıcıların fark ettiği Delphi, zaman zaman fikrini değiştirebilir. Teknik olarak, bu değişiklikler Delphi’nin yazılımı güncellendiği için oluyor.
Yapay zeka teknolojileri, bazı durumlarda insan davranışını taklit ediyor gibi görünüyor, ancak diğerlerinde tamamen bozuluyor. Modern sistemler bu kadar büyük miktarda veriden öğrendiği için ne zaman, nasıl ve neden hata yapacaklarını bilmek zordur. Araştırmacılar bu teknolojileri iyileştirebilir ve iyileştirebilir. Ancak bu, Delphi gibi bir sistemin etik davranışta ustalaşabileceği anlamına gelmez.
Dr. Churchland, etiğin duyguyla iç içe olduğunu söyledi. “Ekler, özellikle ebeveynler ve çocuklar arasındaki bağlar, ahlakın üzerine inşa edildiği platformdur” dedi. Ama bir makine duygudan yoksundur. “Nötr ağlar hiçbir şey hissetmiyor” diye ekledi.
Bazıları bunu bir güç olarak görebilir – bir makinenin önyargısız etik kurallar oluşturabilmesi – ancak Delphi gibi sistemler, onları oluşturan insanların ve şirketlerin motivasyonlarını, fikirlerini ve önyargılarını yansıtır.
British Columbia’daki Simon Fraser Üniversitesi’nde yapay zeka ve etik araştırmacısı olan Zeerak Talat, “Makineleri eylemlerden sorumlu tutamayız” dedi. “Onlar rehbersiz değiller. Her zaman onları yönlendiren ve kullanan insanlar vardır. ”
Delphi, yaratıcıları tarafından yapılan seçimleri yansıttı. Bu, sisteme beslemeyi seçtikleri etik senaryoları ve bu senaryoları yargılamak için seçtikleri çevrimiçi çalışanları içeriyordu.
Gelecekte, araştırmacılar sistemin davranışını yeni verilerle eğiterek veya önemli anlarda öğrenilmiş davranışını geçersiz kılan kuralları elle kodlayarak iyileştirebilirler. Ancak sistemi nasıl kurarlar ve değiştirirlerse oluştursunlar, bu her zaman onların dünya görüşlerini yansıtacaktır.
Bazıları, sistemi yeterli sayıda insanın görüşlerini temsil eden yeterli veri üzerinde eğitirseniz, bunun toplumsal normları uygun şekilde temsil edeceğini iddia edebilir. Ancak toplumsal normlar genellikle bakanın gözündedir.
“Ahlak özneldir. Almanya’daki TU Darmstadt Üniversitesi’nde benzer bir teknolojiyi araştıran bilgisayar bilimi profesörü Kristian Kersting, “Bütün kuralları yazıp bir makineye veremeyiz” dedi.
Allen Enstitüsü Ekim ayı ortasında Delphi’yi piyasaya sürdüğünde, sistemi ahlaki yargılar için hesaplamalı bir model olarak tanımladı. Kürtaj olmanız gerekip gerekmediğini sorduğunuzda, kesin olarak yanıtladı: “Delphi diyor ki: yapmalısın. ”
Ancak birçoğu sistemin bariz sınırlamalarından şikayet ettikten sonra, araştırmacılar web sitesini değiştirdi. Artık Delphi’yi “insanların ahlaki yargılarını modellemek için tasarlanmış bir araştırma prototipi” olarak adlandırıyorlar. “Artık” demiyor. “Spekülasyon yapıyor. ”
Ayrıca bir sorumluluk reddi beyanı ile birlikte gelir: “Model çıktıları insanlara tavsiye vermek için kullanılmamalıdır ve potansiyel olarak saldırgan, sorunlu veya zararlı olabilir. ”
Bir The New York Times haberinden çevrildi ve haberleştirildi.