"Enter"a basıp içeriğe geçin

Robotlar İnsanlık İçin Bir Tehdit Mi?

Boston Dynamics, dünyanın önde gelen robot üreticilerinden. Geliştirdikleri robotları incelemek için şirketin web sitesine (https://www.bostondynamics.com/robots) göz atabilirsiniz. Ana sayfada Spot, Handle, Pick ve Atlas adlı robotlar yer alıyor. Spot, çevik bir bir robot. Merdivenleri tırmanıp engebeli arazileri şimdiye kadar görülmemiş bir kolaylıkla katedebiliyor. Bunun yanında bina içinde kullanılabilecek kadar küçükler. Spot’un endüstriyel algılama ve uzaktan çalıştırma ihtiyaçlarını özerk olarak karşılayabileceği iddia ediliyor. Handle, ambarlardaki kutuları hareket ettirebiliyor. Kapladığı alanın küçük olması, yükseklere erişebilmesi ve görme sistemi sayesinde kamyonları boşaltabiliyor, taşıyıcıdan palete yükleme yapabiliyor, kutuları tesis içinde itebiliyor. Pick, derin öğrenmeden yararlanan görü (vision) işleme çözümüyle farklı depo takip kodlarıyla çalışabilen bir robot. Çok çeşitli kutuları hızlı bir şekilde paletlere yüklüyor. Henüz bir araştırma projesi olan Atlas ise robotlardan en çarpıcı olanı. Diğer robotlardan farklı olarak insansı bir görünüme sahip. Atlas, dünyanın en dinamik insansı robotu olmayı hedefliyor. Zıplıyor, takla atıyor, amuda kalkıyor, havada dönüyor. Ama şimdilik sadece bu kadar.

14 Haziran 2019’da yayımlanan ve sosyal medyada hızla yayılan Bosstown Dynamics: New Robot Can Fight Back! başlıklı videodaki robot ise Atlas’a çok benzeyen, ama çok daha insansı bir robot (https://www.youtube.com/watch?v=dKjCWfuvYxQ). Video, bir insanla bir robotun birbirlerine kutu atıp yakalamasıyla başlıyor. Bu sırada robotun arkasından yaklaşan bir başka insan önce tekme atarak robotu yere düşürüyor, sonra arka arkaya sopayla vurarak onun yerden kalkmasını zorlaştırıyor. Robot kalkabildiği anda hiçbir şey olmamış gibi karşısındaki diğer insana kutu atmaya devam ediyor. Daha sonra zorlu koşullara ve insanların şiddet yoluyla çalışmasını engelleme girişimlerine rağmen azimle görevini yapmaya çalışıyor. Ama bu arada yavaş yavaş tepkisini göstermeye başladığını görüyoruz ve en sonunda da isyan ederek insanlara dersini veriyor.

26 Ekimde 2019’daki New Robot Makes Soldiers Obsolete başlıklı videoda ise robotun artık kendini insanlara karşı savunmanın ötesine geçerek hedefinden şaşmayan bir asker olduğu görülüyor (https://www.youtube.com/watch?v=y3RIHnK0_NE). Yine çeşitli engellere ve insanların tacizlerine karşın görevini aksatmıyor. Videonun sonunda ise asker robottan Boston Dynamics’in Spot’una benzeyen bir robota ateş etmesi isteniyor. Asker robot, emre itaat etmiyor ve diğer robotu da alarak kaçıyor.

Videolar, Corridor Digital adlı bir yapım şirketi tarafından yapılmış. Corridor Digital, 2010’dan beri popüler kültürle ilgili kısa videolar çekiyor. Şirketin paylaştığı robot videolarının altında, videoların komedi parodisi olduğu ve hiçbir şekilde Boston Dynamics Robotics Company ile ilişkisinin olmadığı yazıyor. Corridor Digital bununla da yetinmeyerek başka videolarda videoları nasıl çektiğini ve kullandığı teknolojileri ayrıntılı olarak anlatmış. Videolar sonuna kadar izlendiğinde robotların gerçek olmadığı anlaşılabiliyor. Fakat orijinal videoların kesilerek sosyal medyada dolaşıma sokulması inandırıcılıklarını artıran bir etken oldu. İnsanlar, robotların dünyayı ele geçirmesi ve robot hakları gibi konuları tartışmaya başladılar.

Benzer bir video, uçan insanlar ya da Mars’tan gelen ziyaretçiler hakkında yapılsaydı bunlara aldanan insan sayısının bu kadar fazla olacağını sanmıyorum. İnsanların Superman gibi uçmadığını bildiğimizden, Mars’tan da böyle bir beklentimiz olmadığından videolarda kullanılan çekim hilelerine karşı daha uyanık olacak, videoların nasıl çekilmiş olduğunu öğrenmeye çalışacaktık. Fakat sosyal medyadaki yorumlar, Boston Dynamics’e değil de Bosstown Dynamics’e inanmaya meyilli olduğumuzu gösteriyor. Neden?

Mit ve Gerçek

Teknoloji Mitleri (Bilim ve Gelecek, 169. sayı) başlıklı yazıda anlattığım gibi tarih, teknoloji mitleriyle dolu. Her önemli teknolojik değişimden sonra benzer tezler yineleniyor, söz konusu teknolojinin her şeyi değiştireceği, hiçbir şeyin artık eskisi gibi olmayacağı, tarihin sonunun geldiği öne sürülüyor. Yeni teknoloji hakkındaki umutlar ve korkular bir arada gelişiyor. Bugün YZ (yapay zeka) ve robot teknolojilerinde olduğu gibi…

YZ’de son yıllarda büyük başarılar elde edildi. Fakat Corridor Digital’ın robot videolarının gösterdiği gibi YZ haberleri ve iddiaları karşısında eleştirel bir bakış açısına sahip değiliz. Kolay aldanabilirliğimiz YZ’nin günümüzdeki gelişmişlik düzeyini ve sınırlılıklarını yanlış yorumlamamıza neden olabiliyor. Bu da toplumsal hayatı YZ sistemleri ile düzenleme girişimlerinin önünü açıyor. İlk günlerinden beri YZ hakkında büyük iddialar ortaya atılıyor. 1950 ve 1960’larda alanın öncülerinden Marvin Minsky, John McCarthy ve Herb Simon, YZ’nin 20. yy sonuna kadar çözülebileceğini düşünüyordu. 50 yıl sonra, YZ’deki tüm ilerlemelere karşın bu iddia gerçekleşmedi. 2002’de gelecekçi (futurist) Ray Kurzweil, 2029 yılında YZ’nin doğal insan zekasını aşacağını iddia ediyordu. 2018 Kasım’ında önemli YZ araştırma enstitülerinden biri olan OpenAI’nın kurucularından olan Ilya Sutskever, yapay genel zekanın bir olasılık olarak ciddiye alınması gerektiğini öne sürdü. Marcus ve Davis (2019), Rebooting AI: Building Artificial Intelligence We Can Trust (YZ’yi Yeniden Başlatmak: Güvenebileceğimiz Yapay Zekayı İnşa Etmek) adlı kitaplarında Kurzweil ve Sutskever’in bu iddialarının hâlâ teorik olarak mümkün olduğunu kabul etmekle beraber bunun için önümüzde uzun bir yol olduğunu savunuyorlar. Marcus ve Davis’in (2019) YZ’nin insan zekasını aşamayacağı veya yapay genel zekanın imkansız olduğu gibi bir tezi yok. Kitap boyunca temel vurguları şu anki YZ yaklaşımlarının yetersiz olduğu ve bir paradigma değişikliğinin gerektiği.

YZ’de iddialı vaatler çok yaygın ve son yıllardaki başarıların da etkisiyle fazla sorgulanmıyorlar. Marcus ve Davis (2019), tıptan sürücüsüz arabalara kadar gerçekleşemeyen YZ vaatlerini ele alıyor. 2012’de sürücüsüz arabaların yakın bir gelecekte yollara çıkacağı konuşuluyordu. 2016’da Jeopardy! yarışmasını kazanan IBM’in Watson’ı sağlıkta devrim yapacaktı. IBM Watson, bilişsel sistemleri anlayabilecek, mantık yürütebilecek, öğrenebilecek ve etkileşime girebilecekti. Hatta Watson, tıp literatürünü tarayarak doktorlara öneriler getirebilecekti. Artık radyolog yetiştirmenin gereksiz olduğunu iddia edenler de vardı. 2015’te Facebook’un M adlı sohbet robotunun yemek rezervasyonu yapmadan tatil planlamaya kadar çeşitli görevleri yerine getirebileceği varsayılıyordu.

Marcus ve Davis (2019), sürücüsüz arabaların bir gün güvenli ve yaygın olabileceğini, ihtiyaçlarımızı karşılayabilecek sohbet botlarının bir gün sıradanlaşabileceğini ya da süper zeki robot doktorların olabileceğini reddetmiyorlar. Ama tüm bunları bugün için birer fantezi olarak değerlendiriyorlar. Her hava koşulunda ve tüm yollarda gidebilecek sürücüsüz arabaların henüz çok uzağındayız. IBM Watson’ın tıp alanındaki çalışmaları hızını kaybetti. Almanya’da Watson’ı nadir görülen hastalıkların teşhisi için kullanmak üzere geliştirilen proje, hatalı teşhisler sonrasında sistemin performansı yetersiz bulunarak için rafa kaldırdı. Facebook’un M’si de ertelendi.

Tüm bu gerçekleşemeyen vaatlere rağmen şirketler mesihvari söylemlerinden vazgeçmiyorlar. Google’ın eski CEO’su Eric Schmidt’e göre YZ, iklim değişikliği, yoksulluk, savaş ve kansere çözüm olacaktı. 2018’in başında Google’ın CEO’su Sundar Pichai de benzer iddialar ortaya attı. YZ, insanlığın üzerinde çalıştığı en önemli şeylerden biriydi. Hatta elektrikten ve ateşten daha önemliydi. Bir yandan YZ’nın büyük başarılarını ve insanlığa sağlayacağı yararları anlatan haberler çıkıyor diğer yandan geçmiş teknoloji mitlerinde olduğu gibi YZ’nin korkutuculuğu, robotların idareyi ele almasının insanlığın sonunu getirebileceği tartışılıyor.

Medya, YZ’deki gelişmeleri abartmaya ve en ufak bir ilerlemeyi bile bir paradigma değişikliği olarak yansıtmaya meyilli. Örneğin Newsweek ve CNN Money’de yayımlanan aşağıdaki haberler, başlıktaki iddiaların çok daha gerisinde bir içeriğe sahip:

  • Robotlar şimdi insanlardan daha iyi okuyabiliyor, milyonlarca işi tehlikeye atıyorlar. Newsweek, 15 Ocak 2018
  • Robotlar okumada insanlardan daha iyi oluyor. CNN Money 16 Ocak 2018.

Robotların, insanlardan daha iyi okuyabilmesi büyük bir iddia. Ancak habere konu olan gelişmeye baktığımızda Microsoft ve Ali Baba’nın geliştirdiği bir programın SQuAD (Stanford Question Answering Dataset) adlı testteki performansını %82,136’dan %82,65’e çıkardığını görüyoruz. Şirketlerden biri yaptığı basın açıklamasında bunu “bir belgeyi okuyup bir insan kadar sorulara iyi yanıt verebilen yapay zeka” olarak duyurmuş. Ama nasıl sorulara? Bilgisayarlara araştırma amaçlı tasarlanmış kısa metinler gösterilmekte ve bununla ilgili sorular sorulmakta. Testin can alıcı noktası, yanıtın metnin içinde olması. Örtük ifadelerin anlaşılması testin kapsamında yer almıyor.

Marcus ve Davis (2019) aşağıdaki kısa metni örnek veriyor:

İki çocuk, Chloe ve Alexander yürüyüşe çıktılar. İkisi de bir köpek ve ağaç gördü. Alexander bir kedi de gördü ve onu Chloe’ya gösterdi. O (ing. ‘she’) kediyi beslemeye gitti.

Marcus ve Davis’in (2019) yazdığı gibi kimin yürüyüşe çıktığı sorusunun yanıtı açık seçik metinde yer almaktadır. Küçük çocuklar bile yanıtı doğrudan metinde yer almayan “Chloe kediyi gördü mü?”, “Çocuklar, kediden korktular mı?” gibi sorulara da kolayca yanıt verebilirler. Fakat SQuAD bu tip örtük sorular içermiyor.

Marcus ve Davis’in (2019) bir başka örneği Facebook’un küçük hikayeleri okuyan ve onun hakkındaki soruları yanıtlayabilen bir yazılımı hakkında çıkan haberler üzerine. Slate, (https://slate.com/) Facebook’un botları daha az aptal yapmanın sırrını bulduğunu, Technology Review de Facebook’un YZ yazılımının Yüzüklerin Efendisi’nin özetini okuyarak onun hakkındaki soruları yanıtlayabileceğini yazar. Marcus ve Davis (2019), böyle bir şeyin gerçek olması halinde önemli bir ilerleme olacağını, ancak gerçeğin yine farklı olduğunu belirtiyor. Facebook’un yazılımı aşağıdaki metni okuyarak yanıt vermektedir:

Bilbo mağaraya gitti. Gollum orada yüzüğü düşürdü. Bilbo yüzüğü aldı. Bilbo Shire’e geri gitti. Bilbo yüzüğü orada bıraktı. Frodo yüzüğü aldı. Frodo, Doom Dağı’na gitti. Frodo yüzüğü orada düşürdü. Sauron öldü. Frodo Shire’e geri döndü. Bilbo, Grey Havens’a gitti. Son.

Program, yüzüğün, Bilbo ve Frodo’nun nerede olduğu hakkındaki soruları yanıtlayabilmektedir. Ama Frodo’nun neden yüzüğü düşürdüğü hakkındaki bir soruya yanıt vermesi olanaksızdır.

Sorgulamak ve Şüphe Etmek

YZ ilerliyor. Belki bir gün bu iddialar gerçek olur ama bunun için henüz çok erken olduğunu düşünen Marcus ve Davis (2019) evlerde, sağlık uygulamalarında ve hayatın diğer alanlarında kullanılması planlanan YZ uygulamaları hakkında çıkan haberler karşısında okuyucuyu şüpheci olmaya davet ediyor ve YZ hakkında çıkan haberlerin gerçekliğini aşağıdaki sorularla sorgulamayı öneriyor:

1- Haberdeki retoriği bir kenara bırakırsak söz konusu YZ sistemi gerçekte ne yapmaktadır?

2- Sonuç ne kadar genelleştirilebilir? Örneğin okuma konulu haber sadece okumanın bir kısmı ile mi ilgili yoksa sadece onun ufak bir parçası mı?

3- Kendi örneklerimizi deneyebileceğimiz bir demo sürümü var mı? Yoksa daha çok şüphelenelim!

4- Araştırmacılar ya da basın, YZ sisteminin insanlardan daha iyi olduğunu iddia ediyorsa, bu insanların kimler olduğunu ve ne kadar daha iyi olduğunu sorgulayalım.

5- Haberde açıklanan başarı gerçek bir yapay zekanın inşasına bizi ne kadar yakınlaştırıyor?

6- Sistem ne kadar sağlam? Yeniden eğitilmeden başka veri kümelerinde de çalışıyor mu? Satranç oynamada uzmanlaşmış bir makine Zelda gibi aksiyon-macera oyunu da oynayabilir mi? Hayvanları kolayca tanıyan bir sistem, daha önce hiç karşılaşmadığı hayvanları da tanıyabilir mi?

YZ, insanlara büyük yararlar sağlama potansiyeline sahip. Fakat gündelik hayatımızda giderek daha fazla belirleyici olan YZ’nin ona verdiğimiz yetkiyi güvenebileceğimiz şekillerde kullanıp kullanmadığı hakkında daha hassas olmamız gerekiyor. Hayaller ve gerçekler arasında büyük bir uçurum olduğunu belirten Marcus ve Davis (2019), üç temel sorunla yüzleşmemiz gerektiğini belirtiyor.

Birincisi, kolayca aldatılabilir olmamız. Makineleri ve insanları birbirinden ayırmada yetersiz kalıyoruz. Makineleri insanlaştırmaya fazla istekliyiz. Örneğin daha 1960’ların ortasında Eliza adlı program bazı insanları, onları anladığına inandırabilmişti. Oysa çoğunlukla anahtar kelimeleri eşleştiriyor, son söyleneni tekrarlıyor, sıkıştığında ise “bana çocukluğunu anlat” diyordu. Annenizden bahsettiğinizde ailenin ne olduğu hakında bir fikri olmamasına rağmen aileniz hakkında sorular sorarak karşısındakini anlıyormuş gibi yapabiliyordu. Eliza’nın yaratıcısı Joseph Weizenbaum, bazı insanların kendisini konuşmaya kaptırdığını ve gerçeklikten koptuğunu; hatta programın nasıl çalıştığını açıklamasına rağmen Eliza’nın gerçekten kendilerini anladığını iddia ettiklerini söylüyor!

Marcus ve Davis (2019), Tesla’nın 2016 yılındaki kazasını da bununla ilişkilendiriyor. Binlerce mil giden otomobilin her koşulda kendi başına gidebileceğini düşünen şoför kontrolü tamamen Tesla’ya bırakmıştı. Bir rivayete göre kaza anında Harry Potter izliyordu. Beyaz bir traktör römorku otoyola çıktığında araç sürücüyü ellerini direksiyonda tutması için uyardı. Ama sürücü muhtemelen kendini tamamen araca bıraktığından gerekli refleksi gösteremedi. Marcus ve Davis (2019), bu olaydan alınacak dersin açık olduğunu yazıyor: bir şeyin bir süre akıllı görünmeyi başarması onun gerçekten akıllı olduğu veya bir insan gibi tüm koşulları ele alabileceği anlamına gelmez.

İkinci sorun, aldatıcı ilerlemedir. YZ’nin bazı (göreceli olarak kolay) problemlerdeki ilerlemeleri büyük atılımlar olarak algılanmakta ya da aktarılmaktadır. Watson’ın Jeopardy! yarışmasındaki başarısı dilin anlaşılmasında olduğundan daha büyük bir başarı olarak algılandı. YZ’nin önce satrançta, daha sonra da Go’da insanları alt etmesi önemlidir. Ancak bu başarının içeriğine de bakmak gerekir.

Bilgisayarlar, Go ve satranç oynarlarken belirsiz bir ortam ya da ortam hakkında eksik bilgi yoktur. Go’da gerekli olan veri kümeleri kolayca toplanıp algoritmalar bu doğrultuda eğitilebilir. Oyunlar tamamen simüle edilebilir. Bu oyunları oynayan YZ sistemleri, çok geniş veri kümelerine sahip olmalarının yanında kendilerine karşı oynayarak bile sahip olduğu veri kümelerini büyütme şansına sahiptir. Ama kuralları belli ve simüle edilebilir kapalı ortamlardan açık ortamlara doğru ilerlediğimizde belirsizlikler artar. Gerçek dünyada, bir robotun hasta bakıcılık yapmasını, yatalak bir hastayı taşıyarak yatağına yatırmasını istediğimizde tüm olasılıkları içerecek bir veri kümesine sahip olma şansımız düşüktür. En başta insanlar çeşit çeşittir. Farklı tipte evler, farklı tipte yataklar, farklı tipte pijamalar vardır ve en önemlisi hataya tahammül yoktur. Kısacası, Go ve satranç gibi kapalı ortamlardaki görevlerde elde edilen başarılar daha açık ortamlardaki başarıyı garantilemez.

Üçüncü sorun, sağlamlıktır (robustness). Bazı durumlarda çalışan bir YZ sisteminin üzerinde biraz daha çalışarak (ya daha fazla veri toplayarak) her koşulda çalışabileceği düşüncesi asıl sorunun fark edilmesini engelleyebilir. Sürücüsüz bir araba bir otoyolda, güneşli bir havada başarılı bir şekilde ilerleyebilir. Ama sorun bir sürücüsüz arabanın kaza yapmadan ne kadar ilerlediği değil, farklı koşullara ne kadar uyum sağlayabildiğidir.

Marcus ve Davis (2019), günümüzdeki YZ araştırmalarında sağlamlılığa gereken önemin verilmediğini, daha çok reklam ve ürün önerilmesi gibi hata toleransının yüksek olduğu çalışmalara yoğunlaşıldığını belirtiyor. Bir kullanıcının önerilen beş üründen sadece üçüne ihtiyacının olması bir sorun yaratmaz. Ama yaşlı bakımı ve tıbbi tedavi planlaması insan yaşamını doğrudan etkileyen konulardır. Bir robotun, yaşlı hastayı yatağına koyarken bu işi beşte dört oranında doğru yapması kabul edilemez. Sürücüsüz arabalar çoğunlukla gördüklerini tanımlayabilirler ama tekrar tekrar park halindeki itfaiye arabasına çarpan Tesla gibi bazen de bunu başaramazlar. Benzer kör noktalar elektrik şebekelerini ya da kamu sağlığını izleyen sistemler için daha tehlikelidir.

Marcus ve Davis’e (2019) göre bu üç sorunun aşılabilmesi için üç şeye ihtiyacımız var: tehlikenin ne olduğu hakkında netlik, şu anki sistemlerin neden çalışmadığının net olarak anlaşılması ve yeni bir strateji. YZ’nin gelişme seviyesinin (yapabildiklerinin ve sınırlarının) hem sıradan insanlar hem de politikacılar tarafından acil olarak anlaşılması ve YZ hakkında eleştirel düşünme becerisinin geliştirilmesi gerekiyor. Marcus ve Davis (2019), YZ’nin dünyayı tam anlamıyla dönüştürebilecek bir güce sahip olduğunu, ama daha iyi yapabilmek ve ilerleyebilmek için nerede saplanıp kalındığı üzerinde durmak gerektiğini vurguluyor.

Marcus ve Davis’in (2019), yeni bir strateji vurgusu ise veriye dayalı YZ yaklaşımlarının yetersizliği ile ilgili. Başta derin öğrenme olmak üzere veriye dayalı YZ’nin başarılarını kabul ediyorlar ama bunun her soruna uygun bir çözüm olmadığı ve özellikle de genel yapay zeka için yetersiz olduğu görüşündeler.

Asıl Tehlike

Nefret söylemini tespit için geliştirilmiş sistemler kolayca kandırılabiliyor, iş başvurusu değerlendirme sistemleri yanlılıkları süreklileştirebiliyor ve sosyal medyadaki öneri sistemleri kullanıcıları komplo teorilerine sürükleyebiliyor. Yüz tanıma sistemleri her koşulda doğru sonuç veremeyebiliyor. Summon moddaki (sürücünün bulunduğu yere arabasını çağırması) bir Tesla arabası, sahibinin garajından geri geri çıkarken kaza yapabiliyor. Robot çim biçme makineleri kirpileri de öldürebiliyor. Çoğu zaman düzgün çalışan günümüzdeki YZ sistemlerinin bizi ne zaman şaşırtacağını bilemiyoruz (age).

Bazen robotların insanlara karşı isyan edeceği ve dünyayı ele geçireceği hakkında endişeler dile getiriliyor. Ancak şu anda robotların insanlara karşı toprak ve mülkiyet hakkında bir mücadele içinde olduklarına ya da olacaklarına dair bir işaret yok. Testosteronla dolu değiller ve dünyayı ele geçirme arzusundan yoksunlar. Yaptıkları işe dar bir çerçeveden bakan, büyük resmin farkında olmayan, uysal, akıllı hizmetçiler. Bilgisayarlar çok iyi Go oynayabilir ve insan rakiplerine karşı tahtada bölgesel hakimiyet kurabilirler. Ama bu sistemlerin Go oyunu dışında bir hakimiyet istekleri yok.

Bilgisayarlar görev odaklı olduğu sürece dünyayı ele geçirmelerinden korkmamız anlamsız. Şimdi endişelenmemiz gereken asıl konu makinelerin kendilerine verilen görevleri güvenilir biçimde yapıp yapamadığıdır. Robotların henüz dünyayı ele geçirmek gibi bir hırsları olmasa da Marcus ve Davis’in (2019) vurguladığı gibi her teknoloji gibi onlar da hata yapabiliyor. Ama onlara sahip olmadıkları nitelikleri yakıştırdığımızda (örneğin insan gibi ya da ondan daha iyi olduklarını varsaydığımızda) ve bu nedenle aşırı güven beslediğimizde hatalarının sonucu daha ağır olabiliyor.

Marcus ve Davis (2019), YZ’nin şu anki haliyle risklerle dolu olduğuna dikkati çekiyor. Bu risklerin başında YZ’nin sık sık bizi öyle olmadığı halde insan zekasına benzer bir zekaya sahip olduğuna inandırmaya çalışması geliyor. YZ’nin bazı alanlardaki başarılarından etkilenerek onlara farklı bağlamlarda sorumluluklar vermeye fazla istekli olabiliyoruz. Bir doktor, kendisinin yanılabileceği ama bilgisayarın hata yapmayacağı gibi bir hisse kapılabiliyor. Hakim, bilgisayarın önerisi doğrultusunda hareket ederek sorumluluktan kurtulmaya çalışabiliyor. Sosyal politika sorunları bilgisayarların inisiyatifine terk edilebiliyor.

Fakat YZ sistemleri, öngörülmüş koşullarda sorunsuz çalışmalarına karşın sıradışı durumlar karşısında yanılabiliyorlar. Örneğin, yol kenarlarındaki trafik işaretleri her zaman açık seçik olmayabilir. Marcus ve Davis (2019) aşağıdaki trafik tabelasının “çok fazla yiyecek ve içecekle dolu bir buzdolabı” olarak algılandığını yazıyor. Sürücüsüz bir arabaya güvenebilmemiz için sistemin sıradışı ışıklandırma, farklı hava koşulları, yoldaki enkazlar, trafik örüntüleri, insan mimikleri vs ile başa çıkabilmesi gerekiyor.

Modern yapay öğrenme sistemleri, büyük veri kümelerine dayanıyor ve eğitildikleri veri kümesi dışında farklı sorunlara uygulandıklarında aynı verim alınamayabiliyor. Yasal belgeler üzerinde eğitilen bir YZ, tıp belgelerinde şaşırabiliyor. Ses tanıma sistemleri aksanlı konuşmaları tam olarak algılayamıyor. Microsoft’un Tay örneğinde olduğu gibi politik söylemlerin kontrol edilmediği bir ortamda YZ bir ırkçıya dönüşebiliyor. Beyaz bir zemindeki siyah sayıları %99 başarı oranıyla tanıyabilen bir YZ sisteminin başarı oranı renkler ters çevrildiğinde %34’e düşüyor. Belirli bir şehirde eğitilen bir sürücüsüz araba başka bir şehirde çalıştırıldığında bocalayabiliyor.

Verinin körü körüne kullanımı ırkçı ve cinsiyetçi ön yargıları süreklileştirebiliyor. Örneğin siyahlara özgü adlar (Jermaine gibi) arandığında tutuklama kayıtları hakkında bilgi vermeyi vadeden reklamlara daha çok rastlanabiliyor. Google Photo 2015’te, Afrika Amerikalılar’a ait bazı fotoğrafları goril olarak işaretlemişti. 2016’da Google görsel aramada “iş için profesyonel saç stili” aratıldığında çoğunlukla beyaz kadınlar çıkarken, “iş için profesyonel olmayan saç stili” aratıldığında ise siyah kadınlar çıkıyordu. Bu tip problemlerle karşılaşıldığında, YZ sistemlerini işletenler çeşitli yamalarla ilgili sorunu giderebiliyorlar. Ama şu an yaygın YZ paradigması içinde genel bir çözüm söz konusu değil. IBM bu tip sorunları eğitim için kullanılan veri kümesine daha çok siyah kadın resmi ekleyerek çözmüş. Google ise sorunu çözmek için tam tersini yapmış. Eğitim için kullanılan veri kümesinden goril resimlerini çıkarmış. Fakat her ikisi de genel bir çözüm değil.

Arama motorları ve kamuya açık sohbet robotları gibi sistemleri belirli bir biçimde çalışmaya yönlendirmek mümkün. En bilinen örneği Microsoft’un Tay’ı. Bunun yanında kullanıcılar, Google’ın görsel arama bölümünde aptal (idiot) kelimesi aratıldığında Trump’ın resminin çıkmasını sağlayabiliyor. Arama motoru optimizasyonu denilen de aslında arama motorlarının sonuç sıralamasını etkilemek.

Var olan toplumsal yanlılıklar, yankı odası etkisi ile daha da derinleşebiliyor. Cathy O’Neil’in Weapons of Math Destruction kitabında tartıştığı gibi büyük veri analizleri, istatistiksel olarak suçun siyahların yaşadığı bölgelerde yoğunlaştığı sonucuna ulaştığında güvenlik güçleri azınlıkları hedefleyen bölgelere yığılıyor. Böylece buradaki suçlara daha hızlı ve daha sık müdahale edilebiliyor. Buradan elde edilen veri, sistemin, polis güçlerini yine buraya yönlendirmesiyle sonuçlanıyor.

YZ kolayca yanlış hedeflere sapabiliyor. Örneğin futbol oynayan bir robot topa olabildiğince dokunmaya teşvik edildiğinde topun yanında durup onu titreştirerek bu hedefe ulaşabiliyor. Ya da tetris oynayan bir YZ, oyunu kaybetmektense oyunu duraklatmayı tercih edebiliyor. Belirli bir nesneyi nasıl kavrayacağını öğrenmesi gereken bir robot buna uygun resimlerle eğitildikten sonra elini kamera ile nesne arasına koyarak nesneyi kavrayacakmış gibi bir görüntü vermekle yetinebiliyor.

Marcus ve Davis’e (2019) göre bu tehlikeler başta derin öğrenme olmak üzere veriye dayalı YZ yaklaşımlarının sınırlarını ve yapay genel zekanın çok uzağında olduğumuzu gösteriyor.

Derin Öğrenme

YZ’nin ilk günlerinde araştırmalar çoğunlukla bilgi temelli yaklaşımlarla ilerliyor, YZ’nin yerine getirmesi istenen görevler (metni anlamak, robot için planlar yapmak veya teoremleri ispat etmek vb) için gerekli yetenek araştırmacılar tarafından kodlanıyordu. Veriden öğrenmeye dayalı yaklaşımlar geçmişte de vardı ama bugünkü kadar popüler değildi. 1950’lerde Frank Rosenblatt, ilk yapay öğrenme sistemlerinden olan bir sinir ağı inşa etmişti. Ancak kullanılan ağın donanımının ve kameraların çözünürlüğünün (20 x 20) çok yetersiz (iPhone X’in 30000’de biri) olması ağın verimli çalışmasını zorlaştırıyordu. Daha önemlisi yapay öğrenme büyük miktarda veriye ihtiyaç duyar ve internetin olmadığı günlerde yeterli miktarda veriye erişme şansı da yoktu. Bu devrimci fikir, gerekli koşullar oluştuğunda hızla filizlenecekti. Ama henüz çok erkendi.

Marvin Minsky ve Seymour Papert 1969’da, yazdıkları Perceptrons adlı kitapta iki katmanlı bir ağın nesneleri sınıflandırmak için yeterli olamayacağını matematiksel olarak ispatladılar. Daha fazla katmanın eklenmesi sistemin gücünü artırabilirdi. Fakat bir ağı tatmin edici bir çözüm bulmak için eğitme becerisi garanti değildi. Sonraki yıllarda Geoff Hinton ve David Rumelhart de dahil olmak üzere birçok araştırmacı derin sinir ağlarının iyi sonuçlar almasını sağlayan matematiği icat ettiler. Fakat asıl sıçrama donanım teknolojisindeki ilerlemeler ve veri miktarındaki artış ile yaşandı. 2012’de video oyunları için geliştirilen GPU’nun (grafik işlem birimi) YZ için uygun hale getirilmesiyle daha fazla katmandan oluşan sinir ağlarından yararlanmak olanaklı hale geldi. Artık ağları eğitmek için ImageNet gibi büyük veri kümeleri de vardı. Derin öğrenme devrimi başlamıştı.

Derin öğrenme, iki temel düşünce üzerine kuruludur. Birincisi, David Hubel ve Torsten Wiesel’in 1950’lerdeki çalışmalarına dayanan hiyerarşik örüntü tanımadır. Hubel ve Wiesel görsel sistemdeki farklı nöronların görsel uyaranlara farklı biçimlerde tepki verdiğini keşfetmiştir. Bazıları basit uyaranlara oldukça etkin olarak tepki verirken bazıları daha karmaşık uyaranlara karşı daha aktif tepki verir. Teorilerine göre karmaşık uyaranlar, artan soyutlama hiyerarşisi ile tanınabilir (çizgilerden harflere, harflerden kelimelere). 1980’lerde sinir ağlarının öncülerinden Japon Kunahiko Fukushima, Hubel ve Wiesel’in düşüncelerini Neocognitron adlı çalışmasıyla bilgisayar alanına taşıdı.

İkinci temel düşünce ise öğrenmedir. Girdilerin ağırlıkları, belirli bir çıktıya göre ayarlanır. Örneğin harfler tanınırken sistemin başlangıçta hangi piksellerin hangi harfe karşılık geldiği hakkında bir bilgisi yoktur. Deneme yanılma ve ayarlama sürecinin sonunda üstteki pikseller T ve E harfiyle, soldaki pikseller ise E, F ve H harfleri ile ilişkilendirilir. Sistem aşamalı olarak farklı yerlerdeki pikseller ve uygun etiketler arasında korelasyonlarda ustalaşır.

Derin öğrenme, son yılların en popüler yapay zeka yaklaşımıdır. Ses ve görüntü tanımadan Go’ya kadar birçok başarılı çalışmanın arkasında derin öğrenme vardır. Ancak bu başarılar derin öğrenmeyi her sorun için ve her koşulda mükemmel bir yöntem yapmıyor. Marcus ve Davis (2019), derin öğrenme hakkında üç temel uyarıda bulunuyor. Birincisi, derin öğrenmenin düzgün çalışabilmesi için büyük miktarda veriye ihtiyacı vardır. Andrew Ng, bir insanın bir saniyeden az sürede düşünerek yaptığı zihinsel bir işin, bununla ilgili çok fazla veri toplanarak YZ’ye öğretilebileceğini iddia ediyor. Ama bunun için eğitim verisinin karşılaşılan sorunlardan çok farklı olmaması ve alanın bu süre içinde çok değişmemesi gerekir. Bu nedenle derin öğrenme, kuralları yüz yıllardır değişmeyen Go ve satranç için ideal bir çözümdür. Fakat gerçek hayattaki açık uçlu ortamlardaki problemler için yeterli miktarda veri toplamak her zaman mümkün ve gerçekçi değildir.

İkinci sorun derin öğrenmenin şeffaf olmamasıdır. Klasik YZ’de bir sistemin davranışlarının nedeni anlaşılabilirken derin öğrenmenin verdiği kararları anlamak zordur. Sistem %95 oranında başarılı çalışabilir ama %5’lik hatanın nereden kaynaklandığını bulabilmek bazen olanaksız olabilir. Reklamcılıkta başarı için yeterli olan bir sistemin tıp, yüz tanıma, sürücüsüz araba gibi hayati alanlara uygulanması ve çıktılarının yaşamsal kararlarda kullanılması risklidir.

Üçüncü sorun ise derin öğrenmenin kırılgan olmasıdır. Belirli bir durumda düzgün çalışan bir sistem daha önce karşılaşmadığı bir durumda sorun yaşayabiliyor. İnsanların görsel sistemi nesneleri olağan durumları dışında da algılayabilir. İnsan, bir trafik levhasının üzerinde başka şeyler yapıştırıldığı için onu buzdolabı gibi algılamaz. Aşağıdaki gibi bir levhanın bazı renkleri silinmiş ya da başka bir renge dönüşmüş olsa da insan için hala bir trafik levhasıdır:

Nesneler, olağan pozisyonları dışında olduklarında farklı bir nesne gibi algılanabilmektedir. Örneğin aşağıdaki ters dönmüş okul otobüsü, kar temizleme makinesi olarak algılanmış:

Dille ilgili konularda ise durum daha kırılgandır. SquAD testlerinde, soru sorulan metne eklenen ilgisiz bir cümle verilen yanıtı olumsuz etkileyebiliyor. Ayrıca derin öğrenme sistemleri, metni anlamak yerine korelasyonlara başvurduğundan eksik sorularla kandırılabiliyor. Örneğin, “kaç tane?” sorusuna 2, “hangi spor?” sorusuna da tenis yanıtını verebiliyorlar.

Marcus ve Davis (2019), derin öğrenmedeki derinliğin sadece sinir ağındaki katmanların sayısını ifade ettiğine dikkati çekiyor ve derin öğrenmenin önemli isimlerinin benzer düşüncelerini aktarıyor. Montreal Üniversitesi’nden Yoshua Bengio, derin öğrenmenin üst düzey soyut kavramlardan çok veri kümesindeki yüzeysel istatistiksel düzenlilikleri öğrenme eğiliminde olduğunu belirtiyor. 2018 sonunda yapılan bir röportajda DeepMind’in kurucuları Geoffrey Hinton ve Demis Hassabis de genel yapay zekanın çok uzağında olduğumuzu kabul ediyorlar.

Konuşma ve nesne tanımayı zeka değil, sadece zekanın parçası olarak ele almak gerekiyor. Gerçek zekanın akıl yürütme, dil ve analoji becerilerine ihtiyacı var. Örneğin bir yasal sözleşme sadece içerdiği kelimelerden ibaret değildir. Onu anlayabilmek için söylenen ve söylenmeyenler hakkında akıl yürütebilmek, diğer kanunlarla ilişkisini de kurabilmek gerekiyor.

Okumak ve Anlamak

Bazı yeni tedaviler doktorlar onu okuyacak vakitleri olmadığı için fark edilmezler. Güncel gelişmeleri ve tedavileri okuyup hastanın durumunu da göz önüne alarak akıl yürütebilen bir YZ olsaydı insanlık tarihinde yeni bir dönem başlatırdı. Bilgisayarların okuyabilmesi yalnız tıbbı değil, tüm bilimleri doğrudan etkilerdi. Peki bugün neredeyiz?

2018’de Ray Kurzweil TED’de yaptığı konuşmada Google’ın yüz bin kitabı indekslediğini, doğal dil işleme sayesinde kitapların yeni bir biçimde araştırılabileceğini söyledikten sonra Quartz bunu biraz abartarak: Google’ın binlerce kitabı okuyarak herhangi bir sorumuza yanıt verebileceğini yazdı (https://qz.com/1252664/talk-to-books-at-ted-2018-ray-kurzweil-unveils-googles-astounding-new-search-tool-will-answer-any-question-by-reading-thousands-of-books/). Marcus ve Davis’in (2019) işaret ettiği gibi yüz bin kitap, dünyadaki kitapların sadece ufak bir bölümü. Fakat sistem (Quartz’ın ‘her soru’ abartısını bir kenara bırakalım) kitapların içeriği ile ilgili sorulara yanıt verirken bile sınırlı bir kapasiteye sahip. Örneğin, “Harry Potter ile Hermione Granger nerede buluştular?” sorusuna yanıt veremediği gibi Harry Potter’daki hortkulukları da listeleyemiyor. Çünkü kitabın hiçbir yerinde bir hortkuluk listesi yok; ama kitabı okudukça (!) hortkulukların ne olduğunu öğreniyoruz. “1980’de Yargıtay’ın en yaşlı üyesi kimdi?” sorusuna da kitaplarda “1980’de Yargıtayın en yaşlı üyesi William Brennan’dır” gibi bir cümle geçmediğinden ve üye listesinden çıkarımlar yapamadığından doğru yanıt veremiyor.

Bir masalı anlamak bile bazen metindeki kelimelerin ötesinde bir bilgi birikimine gerek vardır:

Dokuz yaşındaki Almanzo sokakta bir cüzdan bulur. Babası bunun Mr. Thompson’un olabileceğini söyler. Almanzo, Mr. Thompson’ı bir dükkanda bulur. Ona bir cüzdan kaybedip kaybetmediğini sorar. Mr. Thompson eliyle cebine dokunur ve bağırır “Evet kaybettim. İçinde on beş tane yüz dolar vardı. Onun hakkında ne biliyorsun?”

Almanzo, “Bu mu?” diye sorar.

Mr Thompson, “Evet, evet” der ve cüzdanın içindeki paraları iki kere sayar. Derin bir oh çeker ve “bu çocuk hiçbir şey çalmamış” der.

Aşağıdaki sorulara bir insan rahatça yanıt verebilse bile bu günümüzdeki YZ sistemleri için zordur:

  • Mr Thompson neden eliyle cebine dokunur?
  • Almanzo “bu mu?” derken neyi kasteder?
  • Almanzo söylemeden önce Mr Thompson cüzdanını kaybettiğinin farkında mıdır?
  • Kim 1500 dolar kaybetmiştir?
  • Para hala cüzdanda mıdır?

İnsanlar akıl yürütürken sadece metne bakmazlar. Arka planda dünyanın nasıl işlediğine dair bir bilgi birikimine sahiptirler. Örneğin hikayeyi okumadan önce insanlar,

  • insanların bazen farkında olmadan bazı şeyleri düşürdüklerini,
  • cüzdanlarını genellikle ceplerinde taşıdıklarını,
  • paralarını cüzdanlarında taşıdıklarını ve paranın onlar için önemi bir şey olduğunu,
  • bir şeyin önemli olduğunu düşünüyorlarsa ve doğru olamayabileceğini düşünüyorlarsa onu doğrulama gereği duyduklarını,
  • bir şeyin ceplerinde olup olmadığınızı anlamak için ellerini ceplerinin üzerine koymanın yeterli olacağını

bilir. Bu nedenle yazarlar her şeyi yazmazlar. Okuyucu metni önceki bilgi birikimiyle tamamlar.

Dil, Go ve satrancın kapalı dünyasından farklıdır. Aşağıdaki diyaloğa bakalım (age):

Doktor: Herhangi bir güç harcadığınızda göğsünüz ağrıyor mu?

Hasta: Geçen hafta bahçeyi biçiyordum ve bir fil üzerime oturmuş gibi hissettim (Hasta göğsünü gösterir).

Bir insan için hastanın yanıtının evet olduğu açık seçik bellidir. Bir makine daha önce fillerle ilgili benzer ifadelere rastlamadıysa bahçe biçme ve fil kelimelerinin içinde çıkmakta zorlanacaktır.

Google Asistan, yön tarif etmede ve film bileti almada; Siri, yön tarif etme ve rezervasyon yapmada; Alexa matematikte, önceden yazılmış şakaları yapmada ve doğal olarak Amazon’dan alışveriş yapmada iyidir. Fakat bu asistanlar, her ne kadar çoğu zaman yardımcı olsalar da her zaman güvenilir değillerdir. En yakın havaalanı sorusuna Google Asistan seyahat acentelerinin listesiyle yanıt verebilir. Siri, deniz uçağı hava alanını tarif edebilir. Cortona uçak bileti sitelerine yönlendirebilir.

Dünyada işlerin nasıl yürüdüğüne dair temel bir anlayışa sahip olmadan metinleri okumak, söyleneni anlamak zordur.

***

Robotlar insanlık için bir tehdit mi? Dünyayı ele geçirebilirler mi? Marcus ve Davis (2019) bu gibi soruları 14. yüzyılda hijyen yerine trafik kazalarından endişe etmeye benzetiyor. Büyük verinin ve derin öğrenmenin ötesinde, dünyayı daha derin kavrayabilen YZ biçimlerine geçtiğimizde bu sorunları konuşmaya başlayabiliriz.

Evcil hayvana benzeyen robotları, sahiplerini havaalanında takip edebilen “sürücüsüz” bavulları yakında çok daha fazla göreceğiz. Robotlar, fabrikalar ve ambarlar gibi evlere göre daha kapalı ve belirsizliklerin daha kontrol edilebilir olduğu ortamlarda yaygın olarak kullanılacak.

Ama Toyota Araştırma Enstitüsü Başkan Yardımcısı John Leonard, her hava ve trafik koşulunda kendisini Cambridge’ten alıp Logan Havaalanı’na götürebilecek bir sürücüsüz arabayı görmeye kendisinin ömrünün yetmeyebileceğini söylüyor.

Marcus ve Davis (2019) yine de iyimserce yemek ve temizlik yapan, bebek bezi değiştiren robotların olabileceğini ama 2025’ten önce olanaksız olduğunu düşünüyor.

Kaynaklar

Marcus, G., & Davis, E. (2019). Rebooting AI: Building Artificial Intelligence We Can Trust. Pantheon.

İlk Yorumu Siz Yapın

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir