Mart 2018’de, Tesla Model X kullanan Apple mühendisi Walter (Wei Lun) Huang, aracının otobanda yolu bölen bariyere çarpması sonucunda hayatını kaybetmişti. Kaza sırasında Tesla’nın otomatik pilotu devredeydi. Elon Musk, kaza sonrasında yazdığı bir blog yazısında sürücünün kaza öncesinde defalarca uyarıldığını iddia etti. Musk’a göre bu uyarılar kazadan altı saniye önce verilmiş ve şoförden direksiyon başına geçmesi istenmişti. Dolayısıyla suçlu Tesla değil, aracı gerektiği gibi kullanamayan ve yola dikkat etmeyen Huang’dı.
Huang’ın ailesi ise aynı fikirde değildi ve 2019 yılında Tesla’ya karşı dava açtı. Tesla, daha önce de benzer davalarla karşılaşmış ve suçu sürücülere yıkarak kurtulmuştu. Bu davada ise Huang’ın avukatlarının iki temel stratejisi vardı. Birincisi, Tesla’nın otomatik pilotunun orta refüje girme sorunu yaşaması ve bu nedenle otomatik pilotun kusurlu olduğunu belirtmeleriydi. İkincisi ise Musk’un yaptığı açıklamalarla otomatik pilot sistemine aşırı güven yaratması ve kullanıcıları yanıltmasıydı. Tesla ise savunmasında her zamanki stratejisine başvurdu. Huang’ın işe gelip giderken oyun oynama merakı üzerinde durdu. Fakat bu iddiasını destekleyen net bir delil sunamadı.
Nisan ayında, Tesla ve Huang’ın ailesinin anlaştığı duyuruldu. Böylece Tesla, otonom Robotaxi’nin ağustos ayındaki lansmanından önce otonom sürüş teknolojisinin didik didik edileceği bir duruşmadan kaçınmış oldu. Tesla, Huang’ın ailesine ödediği miktarın gizli kalmasını istediğinden bu bilgi mahkeme belgelerinde yer almadı.
2018’den bugüne yayımlanan haberlerin altındaki okuyucu yorumlarına göz attığımda çok sayıda okuyucunun Musk’la hemfikir olduğunu gördüm. Onlar da Huang’ı dikkatsizlikle suçluyorlar ve hatanın teknolojiden değil insandan kaynaklandığını savunuyorlardı. Musk’ın iddia ettiği gibi sürücünün altı saniye içinde toparlanıp direksiyonun başına geçip geçemeyeceği hakkında kuşkularım var. Huang, aracının kontrolünü tamamen Tesla’ya bırakarak kendi yaşamına mal olacak bir hata yapmış olabilir. Fakat Huang’ın ailesi, kritik bir konu üzerinde durmuş: Tesla ve otonom sürüş teknolojisi hakkındaki abartılı reklam, haber ve bizzat Musk’ın yazdıkları tüketicileri aldatıyor. Yeni kazalara davetiye çıkarıyor.
Sorun Musk ve Tesla’yla da sınırlı değil. Genel olarak, yapay zekânın (YZ) mevcut yetenekleri hakkındaki abartılı iddialar çeşitli sorunlara zemin hazırlıyor. Üretken YZ’deki son gelişmeler ve özellikle de ChatGPT’nin gösterişli çıkışı sonrasında şirketler arasındaki yarış hızlandı. Şirketler YZ yatırımlarını artırdılar. 2023’ün sonunda üretken YZ’ye yapılan yatırımın 42,6 milyar dolara ulaşacağı tahmin ediliyordu. YZ’nin kısa ve uzun vadede iş dünyası için ne getireceği hakkında bir belirsizlik var. Fakat YZ’nin kapasitelesine ilişkin abartılar (hype) geride kalmaktan korkan şirketlerin yenilikleri aceleye getirmelerine ve sorumsuzca hareket etmelerine neden oluyor. Daha da kötüsü toplumu YZ’nin gerçek yetenekleri ve karşı karşıya olduğu gerçek (!) tehditler hakkında yanıltıyorlar. LaGrandeur (2023), karşı karşıya olduğumuz tehlikeleri üç vaka etrafında tartışıyor.
Tesla’nın Otopilot Yeteneklerinin Abartılması
Huang örneğinde görüldüğü gibi Tesla’nın otomatik pilot yeteneklerinin abartılması ölüm ve yaralanmalara neden olabiliyor. Örneğin Musk 2019’da, bir kişinin uykuya dalmasının ve gideceği yerde uyanmasının 2020 sonunda olanaklı olacağını söylemiş. Üstelik bundan hiç şüphe duymadığını da belirtmiş. Musk bu iddiasını kazadan bir yıl sonra dile getirmiş. Ama öncesinde de durum pek farklı değil. Otomatik pilot, Ekim 2015’te piyasaya sürüldü. Musk’ın o dönemde yaptığı açıklamalarda da otomatik pilot hakkında abartılı ve yanıltıcı iddialar vardı. Ocak 2016’da, otomatik pilotun bir insan sürücüden ‘muhtemelen daha iyi’ olduğunu iddia ediyordu. Şirketin Kasım 2016’da paylaştığı bir videoda San Francisco Bay Area’da yollarında gezinen bir Tesla aracı için, “sürücü koltuğundaki kişi yalnızca yasal nedenlerden dolayı oradadır. Hiçbir şey yapmıyor. Araba kendi kendine gidiyor.”, deniliyordu. Hatta Musk Tesla için yardımcı pilot (copilot) yerine otomatik pilot (autopilot) terimini kullanmayı tercih ediyordu.
Kaza sonrası Musk ve teknoloji hayranlarının işaret ettiği gibi kullanım kılavuzlarında sürücülerin gözlerini yoldan ayırmamaları ve kendi-kendine sürüş modunu takip etmeleri belirtilmiş. Fakat Musk’ın kendisi, kullanıcıların (ve potansiyel müşterilerin) otomatik pilotun olduğundan daha iyi olduğunu düşünmelerine neden olabilecek açıklamalar yapıyor. 2019’da paylaştığı mesaj kullanım kılavuzlarında yazılanlarla pek uyuşmuyor: “Eğer insan seviyesinde veya altında güvenilirliğe sahip bir sisteminiz varsa, sürücü takibi mantıklı olacaktır. Ancak sisteminiz bir insandan çok daha iyi, çok daha güvenilir ise, o zaman sürücü takibi çok yardımcı olmaz.” (https://www.nytimes.com/2023/01/17/magazine/tesla-autopilot-self-driving-elon-musk.html).
Ne yazık ki Musk’ın bu gibi iddiaları araçların kullanım kılavuzlarından daha çok dikkate alındı ve Tesla’nın otomatik pilotu hakkında tehlikeli bir kafa karışıklığına neden oldu. Diğer yandan sürücü deneyimleri sonucunda Tesla’nın otomatik pilotu aleyhinde davalar açıldı ve 2023 sonunda Tesla, çok sayıda aracını geri çağırmak zorunda kaldı (https://www.trthaber.com/haber/guncel/tesla-otopilot-arizasi-nedeniyle-iki-milyon-araci-geri-cagiriyor-820554.html).
Tesla’da yaşanan tüketici sorunlarının temelinde Musk ve temsilcilerinin abartılı iddiaları yatıyordu. Bunun yanında ABD hükümetinin gevşek düzenlemeleri sorunları daha da kötüleştirdi. Musk, 2022’deki bir konuşmasında ABD ve Avrupa arasındaki farkı şöyle açıklıyordu: “ABD’de bazı şeyler varsayılan olarak yasaldır, Avrupa’da ise varsayılan olarak yasa dışıdır.” Bu nedenle, düzenlemenin daha sıkı olduğu Avrupa Birliği’nde (AB), ABD’deki gibi sorunlar yaşanmadı. AB, otonom araçları en başta sıkı tuttu ve Tesla’nın otomatik pilotlu araçlarının Avrupa’daki satışına hemen izin vermedi. (https://slate.com/technology/2023/02/tesla-recall-full-self-driving-nhtsa-musk-regulation.html)
Üretken YZ’nin Hukukta Kullanılması
ChatGPT çok etkileyici. Akıcı bir dille metinler üretebiliyor ve insanlarla akıcı bir şekilde sohbet edebiliyor. Üretken YZ’lerin bu gibi özellikleri, kullanıcıların YZ teknolojilerine gerçekte sahip olmadıkları özellikler atfetmesine neden oluyor. Örneğin, eski bir Google mühendisi, Google’ın büyük dil modelinin bilinçli ve 7 veya 8 yaşındaki bir insanla paralel bir zekaya sahip olduğunu öne sürebiliyor (https://www.thestreet.com/breaking-news/this-former-google-engineer-calls-ai-bots-sentient).
Daha da tehlikelisi LaGrandeur’un (2023) yazdığı gibi insanlar üretken YZ’leri pervasızca kullanabiliyorlar. Şimdilerde işleri YZ’ye yaptırmak moda! İlk başta öğrencilerin, ödevlerini ChatGPT’ye yaptırmasından endişe duyuyorduk. Ama insanların işlerini (!) ChatGPT’ye yaptırmaya çalışmaları, daha büyük bir risk olarak karşımıza çıkıyor. Günün modasına kapılarak ChatGPT’den yardım alan ve ChatGPT’nin yazdığı metni kontrol etmeden mahkemeye sunan avukatın başına gelenler oldukça öğretici. YZ abartısına kendini kaptıran avukat, ChatGPT yardımıyla bir dava metni hazırlar ve dava metnini geçmişteki (!) altı davaya dayandırır. Metin güzeldir ama avukat ChatGPT’nin halüsinasyon sorunundan bihaberdir ve metinde belirtilen altı dava gerçekte yoktur!
Yakın zamanda yaşanan benzer bir olayda da DoNotPay adlı bir YZ girişiminin CEO’su Joshua Browder, trafik cezasıyla ilgili bir davada bir müşteriyi YZ destekli bir “robot avukatın” temsil edeceğini duyurduğunda California Barosu hemen müdahale eder ve Browder’a barodan izinsiz avukatlık yapamayacağı bildirilir. Baronun müdahalesi, “Baro, YZ’nin avukatları işsiz bırakmasından korktu!” diye haberleştirilse bunu yadırgamayız. Çünkü son zamanlarda bu tür haberler okumaya alıştık. Fakat hem dava metnini yazmak için YZ’yi kullanmaya çalışan avukat hem de robot avukat şirketinin CEO’su, bu abartılı haberlerin yarattığı büyülü atmosferin kurbanı olmuşlardır (Robot avukat şirketinin CEO’su belki bizzat YZ büyüsünü güçlendirmeye çalışmış da olabilir).
Ama baronun robot avukata müdahalesi basitçe robotlara karşı avukatlık mesleğine sahip çıkmakla açıklanamaz. Avukatlık mesleğinin gerektirdiği birtakım etik sorumluluklar vardır. İlk olayda avukat, bu sorumlulukları yerine getirmemiştir. Birincisi, avukatın mesleğini icra etmek için yeterli olması gerekir. Yeterlilik, sadece ilgili kanunları bilmekle sınırlı değildir. Avukat aynı zamanda yararlandığı teknolojiyi ve onun yeterliliğini bilmek zorundadır. Birinci örnekte muhtemelen ChatGPT’yi kullanarak akıllılık ettiğini ve çağa ayak uydurduğunu düşünmektedir. Fakat nispeten yeni bir teknolojiye körü körüne güvenerek büyük bir hata yapmıştır. İkincisi avukat, müvekkili hakkındaki verileri ChatGPT (diğer bir deyişle OpenAI) ile paylaşarak müvekkilinin gizliliğini ihlal etmiştir. Çünkü OpenAI, YZ sistemlerini eğitmek için rutin olarak kullanıcı verilerini kullanır. Üçüncüsü, avukat, avukat olmayan kişilerin yardımına ilişkin sorumluluklarını yerine getirmemiştir. 2012 yılı itibariyle Amerikan Barolar Birliği, avukatların sadece bir davada kendilerine yardım sağlayan kişileri değil, aynı zamanda yardım sağlayan herhangi bir makineyi de denetlemesi gerektiğini belirtmiştir. Dolayısıyla avukatlar, yararlandıkları YZ programlarının çalışmalarını denetlemeli ve teknolojinin avukatların uyması gereken etik standartları karşıladığından emin olmalıdır.
Kısacası avukatların herhangi bir teknolojiden yararlanırken belirli etik sorumlulukları vardır. Peki robot avukatlar kullanıldığında sorumluluk kimde olacaktır? California Barosunun robot avukata müdahalesini bu bağlamda değerlendirmek gerekir.
Robotlar İşimizi Elimizden Alacak Endişesi
İnsanlar YZ’nin yol açabileceği işsizlikten endişe duyarken ChatGPT bu endişeyi artırdı. Geçimini yazı yazarak sağlayan insanlar ChatGPT’nin işlerini ellerinden alacağından korkuyor. LaGrandeur (2023) YZ’nin neden olabileceği işsizlik hakkındaki endişelerin abartılmasının çeşitli nedenleri olduğunu belirtiyor. Birincisi, insanlar genellikle yeni teknolojilerin kısa vadeli etkilerini abartırken, uzun vadeli etkilerini büyük ölçüde hafife alma eğilimindeler. Örneğin, hâlâ insan benzeri bir YZ’ye sahip değiliz ve YZ, sınırlı şeyleri iyi yapabiliyor. YZ’nin günümüzdeki sınırlılıklarına karşın birçok kullanıcı, bazı yeni ve gösterişli şeyler yapabildiği için YZ’nin yeteneklerini abartıyor. Ancak günümüzdeki sınırlılıkları nedeniyle YZ’nin bir çırpıda belirli işleri yapan insanların yerini alması söz konusu değil. Daha ziyade işler içindeki belirli faaliyetler için YZ’den yararlanılacak. Önceki üç sanayi devrimi boyunca yeni teknolojiler, kısa vadede işlerin kaybolmasına neden oldular. Ama uzun vadede, yeni teknolojiler yok ettiklerinden çok daha fazla iş yarattı.
ChatGPT, metin üretmede başarılı olabilir. Ama çok fazla içerik hatası yapıyor ve yukarıdaki avukat örneğinde olduğu gibi gerçek olmayan cümleleri gerçekmiş gibi sunabiliyor. YZ’nin programcıların yerini alabileceği iddia ediliyor. ChatGPT’nin yeni bir projeye başlarken yardımcı olabilir. Sadece beş dakika içinde, daha önce çalıştırılması birkaç saat sürecek bir şeyin çalışmasını sağlayabilir. Eğer programcılık, sadece bunun sınırlıysa YZ ile herkesin programcı olabileceğini iddia eden Nvidia CEO’su haklıdır (https://gazeteoksijen.com/bilim-ve-teknoloji/nvidia-ceosu-huang-yapay-zeka-ile-artik-herkes-programci-olabilir-179868). Ama işler pek öyle yürümüyor… Birincisi üretilen kodu anlayacak ve geliştirecek programcının programcılık bilgisine sahip olması gerekiyor. İkincisi, kullanıcıların yeni ve çeşitli ayrıntılar içeren gereksinimleri, geliştirilen yazılımın dayandığı kütüphanelerin sürümlerindeki değişiklikler ve yazılımın üzerinde çalıştığı ortamlardaki (işletim sistemi, web tarayıcı gibi) güncellemeler nedeniyle ilk etapta basit olan bir kod yapısı giderek karmaşıklaşır. Üçüncüsü, günümüzde bir yazılım her zaman tek başına çalışmıyor. Başka yazılımların API’lerinden (Application Programming interface – uygulama programlama arayüzü) yararlanıyor ve/veya başka yazılımların kullanımı için API’ler sağlıyor. Dolayısıyla YZ’nin yakın zamanda bilgisayar programcılarının yerini alabileceğini düşünmüyorum. John Naughton’ın yazdığı gibi ChatGPT’yi en iyi ihtimalle insan yeteneklerini artırma potansiyeli olan bir araç olarak nitelendirebiliriz (https://www.theguardian.com/commentisfree/2023/jan/07/chatgpt-bot-excel-ai-chatbot-tech).
Kısacası, YZ çok şey vaat ediyor. Hastalıkları daha hızlı ve daha doğru bir şekilde teşhis etmemize yardımcı olarak sağlık hizmetlerini iyileştirebilir. Kişiselleştirilmiş ve uyarlanabilir öğrenme deneyimleri sağlayarak eğitimi ve yaşam boyu öğrenmeyi geliştirmemize yardımcı olabilir. Ama YZ hakkındaki abartılı söylemlerin gerçekliği çarpıtmasına izin vermemek için dikkatli olmalıyız.
YZ Abartısının Ortaya Çıkışı ve Yayılması
Şirketler, YZ hizmet ve ürünlerini pazarlamak için büyük çaba harcıyorlar. YZ abartısının ortaya çıkışında ve yayılmasında teknoloji şirketlerinin rolü büyük. Çünkü abartı, önünde sonunda şirketlerin teknolojilerini paraya dönüştürmelerine veya yatırım desteği almalarına yardımcı oluyor. Fakat YZ abartısını körükleyen sosyo-teknik mekanizmalar da var. Markelius vd (2024), bu mekanizmaları dört başlık altında tartışıyor:
- antropomorfizm (insan biçimcilik)
- kendini YZ uzmanı (!) olarak ilan edenlerin çoğalması
- jeopolitikte ve özel sektördeki fırsatı kaçırma korkusu (fear of missing out – fomo)
- gelişmekte olan teknolojilerde YZ teriminin aşırı ve kötüye kullanımı
Markelius vd (2024), YZ abartısının, kasıtlı olsun ya da olmasın, bu mekanizmalar tarafından kolektif olarak yaratılan küresel, sosyo-teknik bir hayal, bir anlatı olarak görülebileceğini savunuyor.
Antropomorfizm
Antropomorfizm (ister gerçek ister hayali olsun) hayvanlar, doğal güçler, tanrılar ve makineler gibi insan olmayan varlıkların davranışlarına insani özellikler (örneğin niyetler, motivasyonlar ve duygular) atfetmeyi içerir. Birçok YZ teknolojisi, sosyal etkileşimi kolaylaştırmak, kullanıcı deneyimini iyileştirmek veya pazarlama ve parasal amaçlar için kasıtlı olarak insan biçimci bir tarzda tasarlanır. Ancak kullanıcılar, teknolojiler, tasarımcılar, yenilikçiler ve düzenleyiciler arasında ortak bir anlatı olarak gelişen antropomorfizm çeşitli etik sorunlar doğuruyor. Öncelikle YZ bağlamında anlayış, motivasyon ve yaratıcılık gibi zengin psikolojik terimlerin kullanılması mevcut YZ teknolojine onda olmayan yetenekler atfedilmesine neden oluyor. Ayrıca YZ’nin geliştirilmesinden maddi çıkar elde eden aktörlerin, hesap verebilirlik etrafındaki sorunları gizlemek ve karmaşıklaştırmak için kasıtlı olarak antropomorfizmden yararlanabileceğini unutmamak gerekiyor. Çünkü böylece geliştirdikleri ve uyguladıkları teknolojilerden kaynaklanabilecek risk ve zararlardaki sorumluluklarını bulanıklaştırabiliyorlar.
En önemlisi de antropomorfizm mekanizması sayesinde YZ teknolojilerinin geliştirilmesi, işletilmesi ve bakımının temelini oluşturan karmaşık ve çok yönlü YZ altyapısı gizlenebiliyor. Bu altyapı; insan emeğini, önemli gezegensel kaynakları ve karmaşık bir toplumsal kurumlar çerçevesini kapsayan, birbirine bağlı bileşenlerden oluşan geniş bir ağ oluşturuyor. YZ’yi çevreleyen mevcut söylem, sıklıkla bu altyapıyı gizliyor ve YZ teknolojilerini gizemli hale getiriyor. Böylece YZ teknolojileri, işleyişleri için hayati önem taşıyan insani, çevresel ve toplumsal bağımlılıkların altyapısından izole edilmiş gibi görünen özerk varlıklar olarak algılanabiliyorlar. YZ abartısı, YZ’nin özerk, insana benzetilmiş varlıklar olduğu kavramını güçlendirdikçe, YZ altyapısının ihmal edilme ve kamusal denetimden uzaklaşma riski artıyor.
YZ Uzmanlarının (!) Artması
ChatGPT gibi büyük dil modelleri, YZ alanının erişilebilirliğinde bir genişlemeye yol açtı. Böylece sadece ChatGPT’yi veya üretken YZ API’lerini kullanmak dışında fazladan bir bilgisi olmayan YZ uzmanları türedi. Yakın zamanda LinkedIn’de yapılan bir araştırma, genç profesyonellerin %40’ının daha bilgili görünmek için YZ bilgilerini abarttıklarını gösterdi (https://insights.talintpartners.com/gen-z-staff-admit-to-pretending-they-have-used-ai-tool/). YZ uzmanlarının (!) sayısı arttıkça YZ teknolojisini bir çekiç, her sorunu da teknolojik çözümlere ihtiyaç duyan bir çivi olarak görme eğilimi de güçleniyor. Aslında kendilerini YZ uzmanı olarak gördükleri veya gösterdikleri için gençleri ayıplamamak gerekiyor. Toplum, YZ etrafında şekillenen güçlü anlatıya kendini adapte etmeye çalışıyor. YZ bilgisi, politika yapıcılardan pazarlama uzmanlarına kadar çok çeşitli disiplinlerde çok değerli ve aranan bir beceriye dönüşüyor. Canva tarafından yapılan bir araştırmaya göre çalışanların %41’i YZ’den nasıl yararlanacaklarını bilmedikleri takdirde geride kalmaktan korkuyorlar (https://www.benefitnews.com/news/why-employees-feel-the-need-to-exaggerate-their-ai-skills).
YZ’deki Fırsatları Kaçırmayalım
“Teknolojinin hızına yetişemiyorum”, “acaba geride mi kaldım?” vb korkular bireyleri olduğu kadar ülkelerin YZ politikalarını da etkiliyor. Büyük teknoloji şirketleri ve geliştirdikleri YZ teknolojileri, giderek ulusların güvenliği ve egemenliği için vazgeçilmez olarak görülüyor. Bunun sonucunda YZ teknolojilerinin düzenlenmesi ve yasalaştırılmasına yönelik girişimlere karşı çıkılıyor. ABD’de YZ, ulusal vatanseverliğin bir ifadesi olarak görülüyor. Ülkenin teknolojik ilerlemesi, genel toplumsal ilerlemeyle eşitlenmeye çalışılıyor. Almanya, imalat endüstrisindeki YZ uygulamalarına odaklanıyor. Fransa’nın YZ stratejisi, insan merkezli bir anlayışa dayanıyor ve YZ’nin insan yaşamının kalitesini artıracağı iddia edilen sektörlerde kullanımına öncelik veriliyor. Çin’de YZ, yaşlanan nüfus, çevresel kısıtlamalar gibi toplumsal sorunlara karşı bir çözüm” umutlarını yansıtan bir çare olarak değerlendiriliyor.
Fakat YZ teknolojileri hakkındaki küresel anlatılar ve hayaller yalnızca jeopolititik güçler tarafından yaratılmıyor. Bu anlatıların yaratılmasında ve yayılmasında özellikle çok uluslu şirketlerin ve akademik kuruluşların da bir katkısı var. Örneğin, akademi ve endüstri içindeki anlatılar ve algılar, mevcut YZ teknolojileriyle ilişkili uzun vadeli ve kısa vadeli riskler konusundaki tartışmalara yön veriyor. Yaşamın Geleceği Enstitüsü’nün GPT-4’ten daha güçlü YZ sistemlerinin eğitimine en az 6 ay ara verilmesi çağrısını hatırlayalım. Bu çağrı, dünya çapında büyük ilgi gördü ve ortaya çıkan YZ teknolojileri etrafındaki küresel anlatıları önemli ölçüde etkiledi.
YZ Teriminin Aşırı Kullanımı
Son yıllarda, firmalar ürün ve hizmetlerinin YZ içerdiğini daha çok ifade etmeye başladılar. Şirketler abartılı ve kimi zaman asılsız iddialarla ürünlerini pazarlamaya çalışıyorlar. ChatGPT bir çok insanı büyüledi. Ama farklı düşünen bilimciler de vardı. Meta’nın Baş YZ bilimcisi Yann LeCun, ChatGPT’nin devrim niteliğinde bir şey olmadığını düşünüyor. Washington Üniversitesi profesörü Emily Bender ise her şeyi bilen bir bilgisayar programı kavramının bilim kurgu dünyasına ait olduğunu ve orada kalması gerektiğini belirtiyor.
ChatGPT sonrasında YZ kavramının insanlık için varoluşsal bir tehdit olduğunu iddia eden bildiriler ve haberler yayımlandı. Princeton Üniversitesi’nden Arvind Narayanan ve Sayash Kapoor, bildirilerdeki abartılı YZ imgesine itiraz ediyorlar. Öncelikle Yapay Genel Zeka hakkında pek de gerçekçi olmayan bir beklentinin oluşmasına katkıda bulunuyorlar. Bu beklenti, tahmine dayalı YZ modellerinin ölçeklenme eğilimlerine dayanıyor. Gerçekte, teknik sınırlar bu ilerlemeyi yavaşlatıyor ve Yapay Genel Zeka’nın bazılarının tahmin ettiği gibi eli kulağında olmadığını gösteriyor. Bir diğer yanıltıcı düşünce de YZ’nin özerkleşebileceği ve insanlığın aleyhine hareket edebileceği. Oysa yüksek yetenekli YZ sistemleriyle bağlantılı asıl risk, YZ’nin amaçlanan programlamadan özerk bir şekilde sapması ve kendi eylemliliğini geliştirmesi olmayacak. İnsanların YZ’yi kötü amaçlar için kullanması riski çok daha fazla.
Gartner Abartı Eğrisi
Medyadaki haberlerin ve paylaşımların aksine YZ’de bir abartı döneminin içinde olduğumuzu düşünen birçok YZ uzmanı ve araştırma şirketi var. Yeni teknolojilerin abartılması ve bu teknolojiler hakkında mitler üretilmesi de olağan bir durum. Çok daha önceki telgraf, radyo, televizyon vb teknolojilerin ilk günlerinde de abartılı iddialar vardı. YZ baharı (ya da yazı) denilen dönemlerde de YZ’nin geleceği ve yetenekleri abartılıyordu. Hatta Gartner’ın Gartner Abartı (Hype) Döngüsü olarak adlandırılan modelinde teknoloji abartıları için bir örüntü tanımlanıyor.
Döngü, bir teknolojinin çıkışıyla tetikleniyor. İlk aşamada (teknoloji tetiği), teknolojinin uygulanabilirliği sınırlıdır. İkinci aşamada (aşırı beklentiler zirvesi) teknoloji hakkındaki beklentiler ve teknolojinin potansiyelini abartma artar. Bu aşamada, başarı ve başarısızlık hikayeleri el ele gider. Üçüncü aşamada (hayal kırıklığı çukuru), aşırı beklentiler yerini hayal kırıklıklarına bırakır. Teknoloji beklentileri karşılayamamış, genellikle başarısız olmuştur ve kamuoyunun teknolojiye ilgisi azalmıştır. Dördüncü aşamada (aydınlanma eğrisi), teknoloji kabul görmeye başlar ve teknolojinin potansiyeli belirginleşir. Beşinci aşamada (verimlilik platosu) ana akım benimseme yükselir. Teknolojinin uygulanabilirliğini değerlendirmeye yönelik kriterler daha net bir şekilde tanımlanır (https://en.wikipedia.org/wiki/Gartner_hype_cycle).
Bu bağlamda, YZ için ikinci aşamada olduğunu söyleyebiliriz. Ancak er ya da geç üçüncü aşamaya geçeceğimizi düşünerek beklemenin doğru bir yol olduğunu düşünmüyorum. YZ olmasa bile YZ abartısı varoluşsal bir risk içeriyor.
YZ Abartısının Sonuçları
Çevresel Sonuçlar
Şu an karşı karşıya olduğumuz sorunların başında mevcut YZ’nin gezegensel etkileri geliyor. Veri merkezleri, büyük dil modellerinin sürdürülmesinde önemli bir rol oynayarak çevreyi etkilerler. YZ modellerinin üzerinde çalıştığı veri merkezleri, soğutma sistemleri için büyük miktarda su kullanır. Hiper ölçekli veri merkezlerinin su kullanımı, YZ abartısının dünyaya maliyeti hakkında bir fikir verebilir. ABD’deki Fort Meade, Maryland’de bulunan Ulusal Güvenlik Ajansı, veri sunucularının ortam sıcaklığını korumak için günde 19 milyon litre su kullanılır. Bluffdale’deki Utah Veri Merkezi günde 6,4 milyon litre su kullanırken, Microsoft’un San Antonio veri merkezi günde 30 milyon litre su kullanır. 2014 yılında veri merkezlerine su sağlamak için tüm yıl boyunca 626 milyar litre su kullanılmıştır.
Fakat diğer sektörlerin su kullanımıyla karşılaştırıldığında bunun o kadar da büyük bir miktar olmadığı söylenebilir. Örneğin ABD’de 2015 yılında termoelektrik enerji gibi sektörler günde 503 milyar litre, sulama için ise her gün 446 milyar litre su kullanılır. Ayrıca YZ’nin iklim değişikline karşı mücadeleye katkıda bulunabilir. YZ’nin çok boyutlu ve yapılandırılmamış verileri işleme yeteneği, geçmiş iklim eğilimlerine (küresel ortalama sıcaklıklar gibi) ilişkin anlayışımızın derinleşmesine ve daha doğru tahminlerin oluşturulmasına olanak tanıyabilir. Ayrıca Microsoft ve Google gibi şirketler veri merkezlerindeki su kullanım seviyeleriyle mücadele etmeye çalışıyorlar. Google’ın Finlandiya’daki Hamina veri merkezi 2011’den beri soğutma için deniz suyu kullanıyor. Microsoft da Natick Projesi kapsamında bazı sunucularını soğutmak için Pasifik Okyanusu’nu kullanma olasılığını araştırıyor.
Bu gibi girişimlere karşın veri merkezlerinden kaynaklanan yerel sorunlar var. Utah’ın Bluffdale kenti sakinleri, ABD Ulusal Güvenlik Ajansı tarafından kullanılan Utah Veri Merkezi nedeniyle su sıkıntısı çekiyor. 2021’de Tayvan’da yaşanan kuraklıkta TSMC’nin (Taiwan Semiconductor Manufacturing Company) faaliyetlerini sürdürebilmesi için kamyonlar dolusu su sipariş edilmiş. Ayrıca Google ve Microsoft’un yukarıda belirtilen girişimleri bir zorunluluktan kaynaklanmıyor; şirketleri çevreye saygılı davranmaya zorlayan herhangi bir güç veya yasal düzenleme yok. Şirketler bu tür yeşil uygulamalara kaynak ayırmaktan vazgeçebilirler.
YZ abartısının gezegensel etkilerini değerlendirirken suyun yanı sıra diğer kıt kaynaklara bakmak da yararlı olabilir. ChatGPT’nin sadece Ocak 2023’te kullandığı elektrik 175.000 Danimarkalı ailenin bir yıl boyunca kullandığı elektriğe eşdeğerdi. Ayrıca, İrlanda Cumhuriyetinin elektrik kullanımının neredeyse %20’si veri merkezlerinden kaynaklanıyor. Bu oran ülkedeki tüm kentsel hanelerden daha fazla. Üstelik bu enerji tüketimi 2021 yılına göre %31, 2015 yılına göre ise neredeyse %400 daha yüksektir. Birçok YZ teknolojisinin hem eğitim hem de uygulama aşamasında enerji maliyeti yüksektir. Modeller büyüdükçe maliyet artar. ChatGPT gibi büyük dil modeli tabanlı sohbet robotlarına gönderilen her komut, bir e-postadan 100 kat daha fazla enerjiye ihtiyaç duyar. Şirketler (ve genel olarak daha geniş nüfus) bu teknolojiyi kullandıkça YZ’nin gezegensel etkileri artmaya devam edecek. YZ’den kaynaklanabilecek varoluşsal riski öncelikle bu bağlamda değerlendirmek daha yararlı olacaktır.
YZ abartısına kapılmanın bir de fırsat maliyeti var. Şirketler üretken YZ’yi işlerine entegre etmek için milyarlarca dolar harcarken ihmal edilen çeşitli ticari ve sosyal alanlar var. Örneğin, TSMC’nin tesislerine daha fazla su aktarılabilmesi için Tayvanlı pirinç çiftçilerinin pirinç yetiştirmemeleri için sübvanse edildiği, bunun da daha az pirinç yetiştirilmesi anlamına geldiği ve nüfus için gıda ithalatına olan talebi arttırdığı iddia ediliyor.
Toplumsal Sonuçlar
Wall-e adlı çizgi filmde insanlar robotlar sayesinde hareketsiz bir yaşama alışırlar ve en basit hareketleri yaparken bile zorlanırlar. Film, Socrates’in yazmaya karşı çıkışını anımsatıyor. Socrates’in sözlü kültürü savunurken bazı haklı gerekçeleri olabilir. Ama yazının getirileri daha fazla oldu.
YZ’nin yeteneklerinin insana eşdeğer veya ondan üstün olduğu öne sürülmesi makinenin zekasına aşırı güvene neden oluyor. Ayrıca artan ve çeşitlenen YZ uygulamaları nedeniyle zekâ ve beceri kaybı konusunda gerçek bir tehlike söz konusu. Beceri kaybının tanımı, “eğitilmiş veya edinilmiş becerilerin (veya bilginin) kullanılmadığı dönemlerden sonra kaybolması veya azalması”olarak özetlenebilir. Otomatikleştirilen veya teknolojiyle devredilen çeşitli görevler ve vasıflı işlerin dijital olarak artması nedeniyle günümüzde mesleklerde ve endüstrilerde beceri azalmasıyla karşı karşıyayız.
Daha büyük bir tehlike ise yazının başında aktardığım avukatın başına gelenler gibi ChatGPT benzeri YZ sistemlerindeki halüsinasyon sorununu dikkate almamaktır. Üretken YZ hem içerik üretir hem de büyük miktarlarda içerik tüketerek eğitilir. Mevcut en büyük dil modellerinin eğitimi öncelikle internette bulunan içerikle yapılmıştır. Fakat internette hatalı ya da bariz bir şekilde yanlış olan içerikler vardır. Bu durum, YZ araçlarını çıktılarının kalitesi ve geçerliliği konusunda güvenilmez kılmakta ve kullanıcıların bir çıktının doğru olup olmadığını bilmesini zorlaştırır. Mevcut üretken YZ araçları, gerçek olmayan ama içerikleri kendinden emin bir şekilde, doğruymuş gibi sunabiliyor. YZ’nin doğru çıktılardan ayırt edilemeyen yanlış bilgiler içeren çıktılar üretmesi birçok açıdan önemli bir sorun. YZ abartısı, oluşturulan çıktıları daha az dikkatli incelemeye teşvik eden bir güven düzeyi geliştirmekte başarılı olursa yanlış bilgiler kalıcı hale gelebilir: Üretken YZ araçları içerik üretir; içerik daha sonra eğitim için araçta tutulabilir; içerik, web siteleri, bloglar, sosyal medya ve belki de amaca göre birden fazla kanal aracılığıyla internette paylaşılabilir. Böylece şüpheli bilgilerin üretildiği, kullanıldığı, yayıldığı ve nihayetinde bir sonraki model eğitimi için toplandığı tehlikeli bir döngüye yol açar.
***
YZ abartısının nasıl sonuçlanacağını tahmin etmek zor. Gartner eğrisi yine geçerli mi? Bekleyip görmek yerine Markelius vd’nin (2024) belirttiği gibi eleştirel bir bakış açısı geliştirebiliriz:
1. YZ teknolojilerini neden kullanıyorsunuz? Kuruluşunuzun bu teknolojilere gerçekten ihtiyacı var mı, yoksa sadece güncel olanı mı takip ediyorsunuz?
2. Kuruluşunuzda kullanılan YZ uygulaması neden insan biçimci bir tarzda tasarlanmış? Bu tarz, gerekli bir strateji mi?
3. YZ teknolojisini uygun şekilde uygulamak için yardım alacağınız YZ uzmanı (!) gerçekten ilgili teknoloji için gerekli bilgi derinliğine sahip mi?
4. YZ’ye yatırım yaparken fırsat maliyetlerini hesaba kattınız mı?
5. Doğal kaynaklar, insan emeği ve enerji kullanımı da dahil olmak üzere tüm YZ altyapısının sürdürülebilirliğinin dikkate alınması gerekir. YZ tedarik zincirinin tamamının ve her bir bileşendeki etik, ekonomik, sosyal ve ekolojik hususların farkında mısınız?
6. YZ hakkındaki anlatıların farkında olmak kuruluşunuzda YZ ihtiyacını değerlendirmede değerli bir araç olabilir. YZ’yi ilerlemenin tek yolu olarak sunma konusunda çıkarları olan aktörlerin bulunduğunu kabul etmek, YZ’nin gerekliliği konusunda daha ölçülü bir yargıya varılmasına yardımcı olacaktır.
Kaynaklar
LaGrandeur, K. (2023). The consequences of AI hype. AI and Ethics, 1-4.
Markelius, A., Wright, C., Kuiper, J., Delille, N., & Kuo, Y. T. (2024). The mechanisms of AI hype and its planetary and social costs. AI and Ethics, 1-16.
İlk Yorumu Siz Yapın