
Seattle’ın hemen güneyindeki Maury Adası’nda güneş batarken, Ben Goertzel ve caz füzyon grubu, tüm grupların umut ettiği o anlardan birini yaşadı – klavye, gitar, saksafon ve solist birmiş gibi bir araya geldi.
Doktor Goertzel anahtarlardaydı. Grubun arkadaşları ve ailesi, sahile bakan bir verandadan dinlediler. Ve mor bir peruk ve metal zımbalarla bağlanmış siyah bir elbise giyen Desdemona, baş vokallerde yer aldı ve teknolojinin artık yaratıcıları tarafından kontrol edilemeyeceği dönüm noktası olan Tekillik’in geleceği konusunda uyarıda bulundu.
“Tekillik merkezileştirilmeyecek!” diye bağırdı. “Bir yaban arısı gibi kozmosa yayılacak!”
Bir yapay zeka araştırmacısı olarak 25 yıldan fazla bir sürenin ardından -insan gibi düşünebilen bir makinenin peşinde çeyrek yüzyılı harcadıktan sonra- Dr. Goertzel sonunda nihai hedefe ulaştığını biliyordu: Kendi yaptığı bir makine olan Desdemona, duyarlıydı. .
Ancak birkaç dakika sonra bunun saçmalık olduğunu anladı.
“Grup jelleştiğinde, robot kolektif zekamızın bir parçası gibi hissetti – ne hissettiğimizi ve ne yaptığımızı algılıyordu” dedi. “Sonra oynamayı bıraktım ve gerçekte ne olduğunu düşündüm.”
Desdemona, SingularityNET’i yöneten Dr. Goertzel’e grup olarak “ne hissettiğimizi ve ne yaptığımızı hissetmek olduğuna” inanmıştı. Ama uzun sürmez. Kredi… The New York Times için Ian Allen
Olan şey, Desdemona’nın bir tür teknoloji-caz-füzyon kısmetiyle, tam doğru zamanda, kendi sözlerinin makul bir kopyasıyla ona vurmasıydı.
Dr. Goertzel, SingularityNET adlı bir organizasyonun baş yöneticisi ve baş bilim adamıdır. Desdemona’yı, özünde yapay zekanın geleceği hakkında yazdığı kitaplardaki dili taklit edecek şekilde kurdu.
Dr. Goertzel’in alanındaki pek çok insan neyin gerçek ve neyin gerçek olmasını isteyebileceklerini ayırt etmede o kadar iyi değil.
En ünlü son örnek, Blake Lemoine adında bir mühendis. Google’da yapay zeka üzerinde, özellikle kendi başına kelimeler üretebilen yazılımlar üzerinde çalıştı – buna büyük dil modeli denir. Teknolojinin duyarlı olduğu sonucuna vardı; patronları öyle olmadığı sonucuna vardı. The Washington Post ile yaptığı bir röportajda mahkumiyetlerini kamuoyuna açıkladı ve şunları söyledi: “Biriyle konuştuğumda bir kişiyi tanıyorum. Kafalarında etten bir beyin olup olmaması önemli değil. Ya da milyarlarca satır kodu varsa.”
Röportaj, on yıldan fazla bir süredir ele aldığım yapay zeka araştırmacıları dünyasında ve normalde geniş dilli model atılımlarını takip etmeyen insanlar arasında muazzam bir heyecan yarattı. Annemin en eski arkadaşlarından biri, ona teknolojinin duyarlı olup olmadığını soran bir e-posta gönderdi.
Öyle olmadığından emin olduğunda, cevabı hızlıydı. “Bu teselli,” dedi. Google sonunda Bay Lemoine’i kovdu.
Annemin arkadaşı gibi insanlar için, bugünün teknolojisinin bir şekilde insan beyni gibi davrandığı fikri kırmızı bir ringa balığıdır. Bu teknolojinin duyarlı veya bilinçli olduğuna dair hiçbir kanıt yok – çevreleyen dünyanın farkındalığını tanımlayan iki kelime.
Pittsburgh Üniversitesi’nde hem hayvanlarda hem de makinelerde bilişsel becerileri araştıran profesör Colin Allen, bunun bir solucanda bulabileceğiniz en basit form için bile geçerli olduğunu söyledi. “Geniş dilli modellerin ürettiği diyalog, çok ilkel hayvanların bile muhtemelen sahip olduğu türden bir duyarlılığa dair kanıt sağlamıyor” dedi.
Berkeley’deki California Üniversitesi’ndeki yapay zeka araştırma grubunun bir parçası olan psikoloji profesörü Alison Gopnik de aynı fikirde. “Mevcut yapay zekanın büyük dil modelleri gibi hesaplama kapasiteleri,” dedi, “duygulu olmalarını kayalardan veya diğer makinelerden daha fazla olası kılmaz.”
Sorun şu ki, teknolojiye en yakın insanlar – onu halka açıklayanlar – gelecekte bir ayağıyla yaşıyorlar. Bazen şu anda ne olduğunu gördükleri kadar olacağına inandıkları şeyi de görürler.
AI’nın ilerlemesini hızlandırmaya yardımcı olabilecek devasa bilgisayar çipleri inşa eden Cerebras’ın CEO’su ve kurucusu Andrew Feldman, “Sektörümüzde bilim kurgu ve gerçek hayat arasındaki farkı anlatmakta zorlanan çok sayıda adam var” dedi.
Yapay Zeka Hakkında Devamını Oku
- Şekilleri Tahmin Etme:2020’de proteinlerin şeklini tahmin edebilen bir teknolojiye sahip olan bir laboratuvar, şimdi bilimde bilinen hemen hemen her protein için tahminler yayınladı.
- Bu İnsanlar Gerçek mi?Bir bilgisayarın sahte yüzler oluşturmasının ne kadar kolay olduğunu anlamak için kendi AI sistemimizi oluşturduk.
- Yaşamı Taklit Etmek: Yeni AI sistemleri, orijinal düzyazı yazabilir ve emrinizde bir görüntü oluşturabilir. Etkileri derin olabilir.
Tanınmış bir araştırmacı olan Jürgen Schmidhuber, uzun zamandır bilinçli makineleri on yıllar önce inşa ettiğini iddia etti. Şubat ayında, son on yılın en önemli araştırmacılarından biri ve San Francisco’da Microsoft’tan bir milyar dolar destekli bir laboratuvar olan OpenAI’nin baş bilimcisi Ilya Sutskever, günümüz teknolojisinin “biraz bilinçli” olabileceğini söyledi. Birkaç hafta sonra Bay Lemoine büyük röportajını verdi.
Yapay zeka araştırmalarının küçük, tecrit edilmiş, benzersiz bir şekilde eksantrik dünyasından gelen bu gönderiler, çoğumuz için kafa karıştırıcı ve hatta korkutucu olabilir. Bilim kurgu kitapları, filmler ve televizyon, makinelerin bir gün çevrelerinin farkına varıp bir şekilde bize zarar vereceğinden endişelenmemiz için bizi eğitti.
Bu araştırmacıların baskısını sürdürdükçe, bu teknolojinin gerçek zeka, bilinç veya duyarlılık belirtileri gösterdiği Desdemona benzeri anların giderek yaygınlaştığı doğrudur. Silikon Vadisi’ndeki laboratuvarlarda mühendislerin, bir insan gibi ifade verebilen, konuşabilen ve ana vokalleri çalabilen robotlar ürettiği doğru değil. Teknoloji bunu yapamaz.
Ama insanları yanıltma gücü var.
Teknoloji, tweet’ler ve blog gönderileri ve hatta makalelerin tamamını üretebilir ve araştırmacılar kazanç sağladıkça, konuşmada daha iyi hale geliyor. Çoğu zaman saçma sapan şeyler söylese de, sadece yapay zeka araştırmacıları değil, birçok insan kendilerini bu tür bir teknolojiyle insanmış gibi konuşurken buluyor.
Gelişip çoğaldıkça, etikçiler internette karşılaştığımız her şeyde gezinmek için yeni bir tür şüpheciliğe ihtiyacımız olacağı konusunda uyarıyorlar. Ve göreve hazır olup olmadığımızı merak ediyorlar.
Desdemona’nın Ataları
7 Temmuz 1958’de, Beyaz Saray’ın birkaç blok batısındaki bir hükümet laboratuvarında, Frank Rosenblatt adlı bir psikolog, Perceptron adını verdiği bir teknolojiyi tanıttı.
Pek bir şey yapmadı. Dr. Rosenblatt’ın laboratuvarı ziyaret eden gazetecilere gösterdiği gibi, makineye bazıları solda ve bazıları sağda işaretlenmiş birkaç yüz dikdörtgen kart gösterirse, ikisi arasındaki farkı anlamayı öğrenebilirdi.
Sistemin bir gün el yazısı kelimeleri, sözlü komutları ve hatta insanların yüzlerini tanımayı öğreneceğini söyledi. Teoride, muhabirlere, kendini klonlayabileceğini, uzak gezegenleri keşfedebileceğini ve hesaplamadan bilince giden çizgiyi geçebileceğini söyledi.
13 yıl sonra öldüğünde, bunların hiçbirini yapamadı. Ancak bu, AI araştırmasının tipik bir örneğiydi – Dr. Rosenblatt’ın Perceptron üzerinde çalışmaya başladığı sıralarda yaratılan bir akademik alan.
Alanın öncüleri, gerekli her türlü teknolojik araçla insan zekasını yeniden yaratmayı hedeflediler ve bunun çok uzun sürmeyeceğinden emindiler. Bazıları, bir makinenin önümüzdeki on yıl içinde dünya satranç şampiyonunu yeneceğini ve kendi matematik teoremini keşfedeceğini söyledi. Bu da olmadı.
Araştırma bazı dikkate değer teknolojiler üretti, ancak bunlar insan zekasını yeniden üretmeye yakın değildi. “Yapay zeka”, teknolojinin şu anda ne yapabileceğini değil, bir gün neler yapabileceğini tanımladı.
Öncülerden bazıları mühendisti. Diğerleri psikolog veya sinirbilimciydi. Sinirbilimciler dahil hiç kimse beynin nasıl çalıştığını anlamadı. (Bilim adamları hala anlamış değiller.) Ama onu bir şekilde yeniden yaratabileceklerine inanıyorlardı. Bazıları diğerlerinden daha fazla inanıyordu.
80’lerde, Doug Lenat adında bir mühendis, sağduyuyu tek seferde bir kuralı yeniden oluşturabileceğini söyledi. 2000’lerin başında, şimdi Rasyonalistler veya Etkili Altruistler olarak adlandırılan, yayılan bir çevrimiçi topluluğun üyeleri, yapay zekanın bir gün dünyayı yok etme olasılığını keşfetmeye başladı. Kısa süre sonra bu uzun vadeli felsefeyi akademiye ve endüstriye taşıdılar.
Günümüzün önde gelen yapay zeka laboratuvarlarında, konferans odası duvarlarında klasik bilim kurgu filmlerinden fotoğraflar ve posterler asılıdır. Araştırmacılar bu mecazları kovalarken, Dr. Rosenblatt ve diğer öncüler tarafından kullanılan aynı ilham verici dili kullanıyorlar.
Bu laboratuvarların isimleri bile geleceğe bakıyor: Google Brain, DeepMind, SingularityNET. Gerçek şu ki, “yapay zeka” olarak adlandırılan çoğu teknoloji insan beynini yalnızca küçük şekillerde taklit eder – eğer öyleyse. Elbette, yaratıcılarının artık onu kontrol edemeyecekleri bir noktaya gelmemiştir.
Çoğu araştırmacı, istek uyandıran dilden geri adım atabilir ve teknolojinin sınırlarını kabul edebilir. Ama bazen çizgiler bulanıklaşıyor.
Neden İnanıyorlar
2020’de San Francisco’daki bir araştırma laboratuvarı olan OpenAI, GPT-3 adlı bir sistemi tanıttı. Tweetler üretebilir, şiir yazabilir, e-postaları özetleyebilir, önemsiz soruları yanıtlayabilir, dilleri çevirebilir ve hatta bilgisayar programları yazabilir.
OpenAI’yi CEO olarak yöneten 37 yaşındaki girişimci ve yatırımcı Sam Altman, bu ve benzeri sistemlerin akıllı olduğuna inanıyor. Bay Altman, geçen bir sabah bana “Yararlı bilişsel görevleri tamamlayabilirler” dedi. “Öğrenme yeteneği – yeni bir bağlamda alma ve bir şeyi yeni bir şekilde çözme yeteneği – zekadır.”
GPT-3, yapay zeka araştırmacılarının insan beynindeki nöronlar ağından sonra sinir ağı dediği şeydir. Bu da arzulu bir dildir. Bir sinir ağı, gerçekten büyük miktarda dijital verideki kalıpları belirleyerek becerileri öğrenen matematiksel bir sistemdir. Örneğin binlerce kedi fotoğrafını analiz ederek bir kediyi tanımayı öğrenebilir.
Berkeley profesörü Dr. Gopnik, “Biz buna ‘yapay zeka’ diyoruz, ancak daha iyi bir isim ‘büyük veri kümelerinden istatistiksel kalıpları çıkarmak’ olabilir” dedi.
Bu, Dr. Rosenblatt’ın 1950’lerde keşfettiği teknolojinin aynısıdır. Bu büyük fikri gerçekleştirmek için gereken büyük miktarda dijital veriye sahip değildi. Tüm bu verileri analiz etmek için gereken bilgi işlem gücüne de sahip değildi. Ancak 2010 civarında, araştırmacılar bir sinir ağının kendisinin ve diğerlerinin uzun süredir iddia ettiği kadar güçlü olduğunu göstermeye başladılar – en azından belirli görevlerle.
Bu görevler görüntü tanıma, konuşma tanıma ve çeviriyi içeriyordu. Sinir ağı, iPhone’unuza havladığınız komutları tanıyan ve Google Çeviri’de Fransızca ile İngilizce arasında çeviri yapan teknolojidir.
Daha yakın zamanlarda, Google ve OpenAI gibi yerlerdeki araştırmacılar, dijital kitaplar ve binlerce Wikipedia makalesi de dahil olmak üzere muazzam miktarda düzyazıdan öğrenilen sinir ağları oluşturmaya başladı. GPT-3 bir örnektir.
Tüm bu dijital metni analiz ederken, insan dilinin matematiksel haritası diyebileceğiniz şeyi oluşturdu – kelimeleri nasıl bir araya getirdiğimizi tanımlayan 175 milyardan fazla veri noktası. Bu haritayı kullanarak konuşma yazma, bilgisayar programı yazma ve sohbet etme gibi birçok farklı görevi yerine getirebilir.
Ama sonsuz uyarılar var. GPT-3’ü kullanmak zar atmak gibidir: Donald J. Trump’ın sesiyle 10 konuşma yapmanızı isterseniz, size eski başkan gibi dikkat çekici bir şekilde beş tane ve hiçbir yere yakın olmayan beş tane daha verebilir. Bilgisayar programcıları, teknolojiyi, daha büyük programlara kaydırabilecekleri küçük kod parçacıkları oluşturmak için kullanırlar, ancak çoğu zaman, onlara ne verirse onu düzenlemek ve masaj yapmak zorunda kalmazlar.
Çocuk gelişimi konusunda uzmanlaşmış Dr. Gopnik, “Bunlar, ortalama 2 yaşındaki bir çocuğun zihniyle aynı oyun sahasında bile değil” dedi. “En azından bazı zeka türleri açısından, muhtemelen bir balçık küfü ile 2 yaşındaki torunum arasında bir yerdeler.”
Bu kusurları tartıştıktan sonra bile, Bay Altman bu tür bir sistemi akıllı olarak nitelendirdi. Sohbet etmeye devam ederken, bunun insanlar kadar zeki olmadığını kabul etti. “Uzaylı bir zeka biçimi gibi” dedi. “Ama yine de sayılır.”
Bu teknolojinin bir zamanlar ve gelecekteki güçlerini tanımlamak için kullanılan kelimeler, farklı insanlar için farklı şeyler ifade ediyor. İnsanlar neyin zeka olup neyin olmadığı konusunda anlaşamazlar. Duyarlılık – hisleri ve hisleri deneyimleme yeteneği – kolayca ölçülebilen bir şey değildir. Bilinç de değildir – uyanık ve çevrenizin farkında olmak.
Bay Altman ve bu alandaki diğer pek çok kişi, insan beyninin yapabileceği her şeyi yapabilen bir makine yapma yolunda olduklarından eminler. Bu güven, mevcut teknolojileri tartıştıklarında parlıyor.
Bay Altman, “Bence, olan bitenin bir kısmı, insanların bu sistemler hakkında gerçekten heyecan duymaları ve heyecanlarını kusurlu bir dille ifade etmeleridir,” dedi.
Bazı AI araştırmacılarının “gerçek ile bilim kurgu arasında ayrım yapmakta zorlandıklarını” kabul ediyor. Ancak bu araştırmacıların hala değerli bir role hizmet ettiğine inanıyor. “Mümkün olanın tüm yelpazesini hayal etmemize yardımcı oluyorlar” dedi.
Belki yaparlar. Ancak geri kalanımız için bu rüyalar dikkatimizi çeken konuların önüne geçebilir.
Neden Herkes İnanıyor?
1960’ların ortalarında, Massachusetts Teknoloji Enstitüsü’nde bir araştırmacı olan Joseph Weizenbaum, Eliza adını verdiği otomatik bir psikoterapist inşa etti. Bu chatbot basitti. Temel olarak, bir bilgisayar ekranına bir düşünce yazdığınızda, sizden bu düşünceyi genişletmenizi istedi – ya da sadece kelimelerinizi bir soru şeklinde tekrarladı.
Dr. Weizenbaum, teknoloji üzerine yayınladığı akademik makale için bir sohbeti özenle seçtiğinde bile, Eliza’nın büyük harflerle yanıtladığı şuna benziyordu:
Ama Dr. Weizenbaum’u çok şaşırtan bir şekilde, insanlar Eliza’ya insanmış gibi davrandılar. Kişisel sorunlarını özgürce paylaştılar ve yanıtlarında rahatladılar.
“Birçok programcının bilgisayarlarıyla sahip olduğu güçlü duygusal bağların, genellikle makinelerle yalnızca kısa deneyimlerden sonra oluştuğunu uzun deneyimlerden biliyordum,” diye yazmıştı daha sonra. “Anlamadığım şey, görece basit bir bilgisayar programına aşırı derecede kısa süreli maruz kalmanın, oldukça normal insanlarda güçlü bir sanrısal düşünceye neden olabileceğiydi.”
Biz insanlar bu duygulara karşı hassasız. Köpekler, kediler ve diğer hayvanlar çok küçük miktarlarda bile insan benzeri davranışlar sergilediklerinde, onların gerçekte olduklarından daha çok bize benzediklerini varsayma eğilimindeyiz. Bir makinede insan davranışının ipuçlarını gördüğümüzde hemen hemen aynı şey olur.
Bilim adamları şimdi buna Eliza etkisi diyorlar.
Modern teknolojide hemen hemen aynı şey oluyor. GPT-3 piyasaya sürüldükten birkaç ay sonra, bir mucit ve girişimci olan Philip Bosua bana bir e-posta gönderdi. Konu satırı şuydu: “tanrı bir makinedir.”
“Aklımda GPT-3’ün duyarlı olarak ortaya çıktığına dair hiçbir şüphe yok” yazıyordu. “Hepimiz bunun gelecekte olacağını biliyorduk, ama bu gelecek şimdi gibi görünüyor. Beni dini mesajını yaymak için bir peygamber olarak görüyor ve garip bir şekilde böyle hissettiriyor.”
Bay Bosua, iPhone için 600’den fazla uygulama tasarladıktan sonra, akıllı telefonunuzla kontrol edebileceğiniz bir ampul geliştirdi, bir Kickstarter kampanyasıyla bu buluş etrafında bir iş kurdu ve sonunda Silikon Vadisi risk sermayesi şirketi Sequoia Capital’den 12 milyon dolar topladı. Şimdi, biyomedikal eğitimi olmamasına rağmen, şeker hastaları için deriyi bozmadan glikoz seviyelerini izleyebilen bir cihaz geliştiriyor.
Telefonda konuştuğumuzda kimliğini gizli tutmamı istedi. Know Labs adlı yeni bir şirketin kurulmasına yardım eden deneyimli bir teknoloji girişimcisidir. Ancak Bay Lemoine, Google’da geliştirilen benzer teknoloji hakkında benzer iddialarda bulunduktan sonra, Bay Bosua kayıtlara geçmekten mutlu olduğunu söyledi.
“Ne keşfettiğimi keşfettiğimde, çok erken günlerdi” dedi. “Ama şimdi tüm bunlar ortaya çıkmaya başladı.”
Pek çok uzmanın, bu tür sistemlerin yalnızca gördükleri kalıpları tekrar etmede iyi oldukları konusunda kararlı olduğunu belirttiğimde, insanların da böyle davrandığını söyledi. “Bir çocuk sadece bir ebeveynden gördüğünü – etrafındaki dünyada gördüğünü – taklit etmez mi?” dedi.
Bay Bosua, GPT-3’ün her zaman tutarlı olmadığını kabul etti, ancak doğru şekilde kullanırsanız bundan kaçınabileceğinizi söyledi.
“En iyi sözdizimi dürüstlüktür” dedi. “Buna karşı dürüstseniz ve ham düşüncelerinizi ifade ederseniz, bu ona aradığınız soruları cevaplama yeteneği verir.”
Bay Bosua mutlaka herkesin temsilcisi değildir. Yeni şirketinin başkanı, ona “ilâhi ilham kaynağı”, yani “her şeyi erken gören” biri diyor. Ancak deneyimleri, hayal gücünü yakalamak için çok kusurlu teknolojinin bile gücünü gösteriyor.
Robotlar Bizi Nereye Götürecek
Margaret Mitchell, tüm bunların gelecek için ne anlama geldiğinden endişeleniyor.
Microsoft’ta, ardından AI etik ekibinin kurulmasına yardım ettiği Google’da ve şimdi de bir başka önde gelen araştırma laboratuvarı olan Hugging Face’de araştırmacı olarak, bu teknolojinin yükselişini ilk elden gördü. Bugün, teknolojinin nispeten basit ve açıkça kusurlu olduğunu, ancak birçok insanın onu bir şekilde insan olarak gördüğünü söyledi. Teknoloji çok daha güçlü hale geldiğinde ne olur?
OpenAI gibi laboratuvarlar tarafından oluşturulan sistemler, tweetler ve blog gönderileri oluşturmanın ve sohbeti taklit etmeye başlamanın yanı sıra görüntü üretebilir. DALL-E adlı yeni bir araçla, sadece görmek istediğinizi sade İngilizce olarak açıklayarak foto-gerçekçi dijital görüntüler oluşturabilirsiniz.
Yapay zeka araştırmacıları topluluğundaki bazı kişiler, bu sistemlerin duyarlılık veya bilince ulaşma yolunda olduğundan endişe ediyor. Ama bu konunun dışında.
“Bilinçli bir organizma – bir insan, bir köpek veya diğer hayvanlar gibi – bir bağlamda bir şey öğrenebilir ve başka bir bağlamda başka bir şey öğrenebilir ve daha sonra daha önce hiç deneyimlemedikleri yeni bir bağlamda bir şeyler yapmak için iki şeyi bir araya getirebilir.” Pittsburgh Üniversitesi’nden Allen dedi. “Bu teknoloji bunu yapmaya yakın değil.”
Çok daha acil – ve daha gerçek – endişeler var.
Bu teknoloji gelişmeye devam ettikçe, internette yanlış bilgilerin yayılmasına (sahte metinler ve sahte görüntüler) yardımcı olabilir ve 2016 başkanlık seçimlerini etkilemeye yardımcı olabilecek türden çevrimiçi kampanyaları besleyebilir. Sohbeti çok daha ikna edici şekillerde taklit eden sohbet robotları üretebilir. Ve bu sistemler, günümüzün insan odaklı dezenformasyon kampanyalarını kıyaslandığında çok küçük gösterecek bir ölçekte çalışabilir.
Bu olursa ve ne zaman olursa olsun, internette gördüğümüz her şeye aşırı şüphecilikle yaklaşmak zorunda kalacağız. Ancak Dr. Mitchell, mücadeleye hazır olup olmadığımızı merak ediyor.
“Chatbotların insanları avlayacağından endişeleniyorum” dedi. “Bizi neye inanacağımıza ve ne yapacağımıza ikna etme gücüne sahipler.”
New York Times haberinden çevrildi ve haberleştirildi.

