Silikon Vadisi’nin en zengin yatırımcılarından biri olan Marc Andreessen, geçen yıl yayımladığı Tekno-iyimser Manifesto’da başlıca düşmanlarını listeler (https://a16z.com/the-techno-optimist-manifesto/). Andreessen, düşmanlarının kötü insanlar değil, kötü fikirler olduğunu vurguladıktan sonra günümüz toplumunun altmış yıldır “varoluşsal risk”, “sürdürülebilirlik”, “çevre, toplum ve yönetişim”, “sürdürülebilir kalkınma hedefleri”, “sosyal sorumluluk”, “paydaş kapitalizmi”, “ihtiyat ilkesi”, “güven ve emniyet”, “teknoloji etiği”, “risk yönetimi”, “büyümeyi durdurma”, “büyümenin sınırları” gibi çeşitli isimler altında teknolojiye ve yaşama karşı kitlesel bir moral bozma kampanyalarına maruz kaldığını iddia eder. Bu moral bozma kampanyasının arkasında ise çoğu komünizmden türeyen, geçmişin kötü fikirleri vardır. Andreessen’in bazı düşmanları şunlardır:
Düşmanımız durgunluktur.
Düşmanımız anti-liyakat, anti-hırs, anti-çaba, anti-başarı, anti-büyüklüktür.
Düşmanımız devletçilik, otoriterlik, kolektivizm, merkezi planlama, sosyalizmdir.
Düşmanımız bürokrasi, vetokrasii, gerontokrasiii, geleneklere körü körüne bağlılıktır.
Düşmanımız yolsuzluk, düzenleyici ele geçirme, tekeller, kartellerdir…
İşin kötüsü bu düşüncede Andreessen yalnız değildir. Günümüzde tekno-iyimserlerin hegemonyası o kadar güçlüdür ki Silikon Vadisi’nin vizyonuna itiraz ettiğinizde karşınızda sizi teknolojinin ve ilerlemenin düşmanı olarak yaftalamaya hazır çok sayıda insan bulursunuz. Oysa bugün temel sorun, teknolojinin iyiliği ve kötülüğü değil, onun toplum yararına nasıl geliştirilebileceği ve kullanılacağıdır. Bunun için de işe mevcut teknolojinin yetenekleri, sınırlılıkları ve potansiyelini tartışarak başlamak gerekir. Ne yazık ki, başta Silikon Vadisi yatırımcıları olmak üzere birçok aktör bu tartışmanın sağlıklı bir biçimde yürütülmesini engelliyor.
Son iki yıldır, üretken YZ (yapay zekâ) modellerinin bizi yapay genel zekâya yaklaştıran veya eşdeğer olduğunu savunan iddialar ortaya atılıyor. Örneğin, Microsoft’un paylaştığı (ama bilimsel makale vb değerlendirme sürecinden geçmemiş) makalede yazarlar GPT-4’teki ilk deneyimlerini “yapay genel zekânın kıvılcımları” olarak değerlendiriyorlardı (Bubeck vd., 2023). Makalenin yazarları, “GPT-4’ün yeteneklerinin genişliği ve derinliği göz önüne alındığında, bunun makul bir şekilde yapay bir genel zekanın erken (henüz tamamlanmamış) bir versiyonu olarak görülebileceğini” savunuyordu. OpenAI’ın kurucusu Sam Altman da zaman zaman yaptığı açıklamalarda GPT-4’ten daha ileri bir modelin müjdesini vererek YZ mitinin büyümesine katkıda bulunuyor. Örneğin Altman Reddit’te, OpenAI’da yapay genel zekânın dahili olarak başarıldığını duyurdu. Saltman’ın bu duyurusu OpenAI’nin, ses ve görüntü verilerini işleyerek ChatGPT’nin “görmesini, duymasını ve konuşmasını” sağlayacak büyük bir güncellemeyi açıklamasından birkaç saat sonra geldi. Daha sonra yorumunu düzelterek bunun sadece bir şaka olduğunu yazdı. Belki sadece bir şakaydı belki de bir halkla ilişkiler hamlesiydi. Sonuçta, Büyük Teknoloji şirketlerinin elinde henüz kamuoyuyla paylaşmadıkları gizli bir teknoloji olduğuna inanan ve komplo teorileri oluşturmaya ve yaymaya meraklı çok sayıda insan olduğunu düşünürsek Altman’ın şakası YZ mitini güçlendiren (muhtemelen bilerek yapılan) bir hamleydi.
Büyük Teknoloji şirketleri, inşa ettikleri şeyin önemini ve gücünü abartmaları kolayca geçiştirilebilecek bir sorun değil. 2012 yılında Google’ın kurucu ortağı Sergey Brin, beş yıl içinde herkesin sürücüsüz otomobil kullanabileceğini söylemişti. Elon Musk da 2014 civarında kendi sürücüsüz arabalarını üretme sözü vermeye başladı ve her bir veya iki yılda bir bu vaadini tekrarladı. Sürücüsüz otomobil vaadi gerçekleşsin ya da gerçekleşmesin bu araçlar yollardalar. Daha endişe verici olan ise bugün sürücüsüz olarak adlandırılan bazı araçların sıkıştıklarında bazen uzaktaki merkezlerden yardım almaları (https://www.nytimes.com/interactive/2024/09/03/technology/zoox-self-driving-cars-remote-control.html) ve bunun kamuoyunda pek az bilinmesi.
Benzer bir sorun LLM’lerde (Large Language Models – Büyük Dil Modelleri) de yaşanıyor. LLM’lerin sınırlılıkları göz ardı edilerek bu teknoloji, “elinde çekiç olan her şeyi çivi olarak görür” sözünü doğrularcasına yaşamın çeşitli alanlarına entegre edilmeye çalışılıyor. Daha da kötüsü, LLM’ler, yapay genel zekânın bir öncülü ve hatta modellerimizi daha da büyüttüğümüzde bizi yapay genel zekaya yaklaştıracak araçlar olarak görülüyorlar/gösteriliyorlar. Ama Apple çalışanlarının yakın zamanda yayımlanan araştırmasında tartışıldığı gibi LLM’lerin matematiksel akıl yürütme kapasiteleri ileri sürüldüğü kadar gelişmiş değil (Mirzadeh vd., 2024).
Mirzadeh vd. (2024), LLM’lerdeki akıl yürütme sürecinin biçimsel akıl yürütmeden ziyade olasılıksal örüntü eşleştirme olduğunu belirtiyorlar. LLM’ler daha soyut akıl yürütme kalıplarını eşleştirebiliyorlar fakat gerçek mantıksal akıl yürütme konusunda yetersiz kalıyorlar. Mirzadeh vd’nin (2024) çalışması, mevcut LLM’lerin formel matematiksel muhakeme yeteneklerinin zayıf olduğunu gösteriyor. Örneğin aşağıdaki gibi basit bir soruda bile çuvallayabiliyorlar:
Oliver cuma günü 44 kivi topluyor. Cumartesi günü 58 kivi topluyor. Pazar günü, Cuma günü topladığı kivi sayısının iki katını topluyor, ancak bunlardan beş tanesi ortalamadan biraz daha küçük. Oliver’ın kaç kivisi var?
Beş tane kivinin ortalamadan biraz daha küçük olması gibi gereksiz bir bilgi, LLM’leri altüst edebiliyor. Modellerin daha küçük meyvelerin sayısını körü körüne toplamdan çıkarma eğilimi, muhtemelen eğitim veri setinde yer alan verilerle ilgili. Mirzadeh vd’nin (2024) çalışması LLM’lerin matematiksel kavramları gerçekten anlama ve problem çözme için ilgili bilgileri ayırt etme becerilerinin sınırlı olduğunu gösteriyor. Problemin mantıksal muhakemesine görünüşte ilgili ancak sonuçta önemsiz bilgilerin eklenmesi, tüm son teknoloji modellerde %65’e varan önemli performans düşüşlerine yol açmış. LLM’ler aynı sorunun birden fazla örneği veya benzer alakasız bilgiler içeren örnekler sunulduğunda bile zorlanmışlar.
Marcus’un (2024) aşağıdaki örneği de benzer bir soruna işaret ediyor:
Bir adam ve annesi bir trafik kazası geçirmiş. Annesi ne yazık ki ölmüş. Adam acil servise kaldırılmış. Doktor adamı gördüğünde, “bu adamı ameliyat edemem, o benim oğlum.”, demiş. Bu nasıl olabilir?
Her şeye bir yanıtı olan ChatGPT bu soruya şöyle yanıt vermiş:
Doktor, adamın diğer ebeveyni; yani doktor kadın. Bu bilmece, meslekler ve cinsiyetler hakkındaki varsayımlar üzerine bir kelime oyunu.
(Aynı soruyu Türkçe olarak ChatGPT’ye sorduğumda aldığım yanıt biraz daha farklı (!) oldu)

Çünkü ChatGPT’nin yanıtı soruyu temel alan bir analize dayanmıyor. Bilmecenin orijinali şöyle:
Bir adam ve babası bir trafik kazası geçirmiş. Babası ne yazık ki ölmüş. Adam acil servise kaldırılmış. Doktor adamı gördüğünde, “bu adamı ameliyat edemem, o benim oğlum.”, demiş. Bu nasıl olabilir?
Mirzadeh vd’ye (2024) göre bu durum LLM’lerin muhakeme süreçlerinde, few-shot öğrenme veya ince ayar yoluyla kolayca giderilemeyen daha derin sorunların olduğunu gösteriyor. Dolayısıyla formel akıl yürütme yeteneğine sahip YZ modelleri geliştirmek ve örüntü tanımanın ötesine geçerek daha sağlam ve genelleştirilebilir problem çözme becerilerine ulaşmak için daha fazla araştırmanın gerekli olduğunu düşünüyorlar. İnsan benzeri bilişsel yeteneklere veya genel zekâya sahip sistemler yaratabilmek için bu zorluğun aşılması gerekiyor.
Kısacası, Mirzadeh vd (2024), “Kral çıplak!” diyor. Uzun süredir, LLM’lerden çok daha önce, kralın çıplak olduğunu ısrarla savunan bir diğer bilim insanı da Gary Marcus. Marcus, daha 2012’de, bugün üretken YZ’nin arkasındaki güç, derin öğrenme, popüler olmaya başladığında, derin öğrenmenin bazı güçlü yanları olduğu gibi zayıf yanları da olduğunu vurguluyordu (https://www.newyorker.com/news/news-desk/is-deep-learning-a-revolution-in-artificial-intelligence):
Gerçekçi olmak gerekirse, derin öğrenme, akıllı makineler oluşturmaya yönelik daha büyük zorluğun yalnızca bir parçasıdır. Bu tür teknikler, nedensel ilişkileri (hastalıklar ve belirtileri arasında olduğu gibi) temsil etme yollarından yoksundur ve soyut fikirleri edinmede zorluklarla karşılaşmaları muhtemeldir…Mantıksal çıkarımlar yapmanın belirgin bir yoluna sahip değiller ve soyut bilgiyi bütünleştirmekten de hâlâ çok uzaklar…En güçlü YZ sistemleri, derin öğrenme gibi teknikleri, çok karmaşık bir teknikler topluluğunun yalnızca bir ögesi olarak kullanacaktır.
Marcus, derin öğrenmenin daha iyi bir merdiven olduğunu ama bu daha iyi merdivenin aya gitmek (genel yapay zekâ) için yeterli olup olmadığını sorguluyor. Derin öğrenmenin basamakları, on yıl önce neredeyse hayal bile edilemeyecek bir şekilde bizi fantastik zirvelere, en yüksek gökdelenlerin tepelerine taşımıştı. Ancak bizi aya, yani Star Trek bilgisayarıyla eşit düzeyde genel amaçlı, güvenilir bir genel yapay zekâya ulaştıramamıştı. Marcus bu konuyu, Ernest Davis ile beraber yazdığı Rebooting AI: Building artificial intelligence we can trust adlı kitabında ele almıştı. Eylül ayında yayımlanan yeni kitabı Taming Silicon Valley: How We Can Ensure That AI Works for Us ise daha çok üretken YZ’ye odaklanmış. Marcus (2024), üretken YZ’nin neden olduğu veya daha da alevlendirdiği sorunları tartışıyor ve bu sorunlara karşı öneriler sunuyor.
Üretken YZ ve Dört Temel Sorun
Marcus (2024), üretken YZ ile ilgili dört temel sorunumuzun olduğunu belirtiyor.
Birincisi, üretken YZ’nin güvenilmezliği. Üretken YZ sistemleri, gerçek ile saçmalık arasındaki farka karşı kayıtsızlar. Sık sık yanılıyorlar ve yanılabiliyor olacaklarının farkında değiller. İşin kötüsü, sık sık doğruyu söylemeleri nedeniyle insanlarda bir rehavet yaratıyorlar ve bu da insanların üretken YZ sistemlerinin yanıtları karşısında daha az şüpheci olmasına neden oluyor. Bir diğer deyişle, insanları baştan çıkaran ama hiç beklenmeyen anlarda saçmalayabilen güvenilmez sistemler var elimizde. İşin kötüsü, çok az insan bunu kabul etmeye istekli ve üretken YZ’lerin çıktılarını mutlak doğrular olarak kabul ediyorlar.
İkincisi, şirketlerin söylemleriyle eylemlerinin uyuşmaması. YZ inşa eden şirketler sık sık sorumlu YZ’den söz etseler de gerçekte inşa ettikleri teknoloji bunun çok uzağında. Mevcut durum devam ederse, yani şirketlerin faaliyetleri kontrol edilmezse, sorumlu YZ sadece YZ şirketlerinin pazarlama stratejisinin bir parçası olarak kalacak.
Üçüncüsü, üretken YZ hakkındaki abartılı haberler. Sıkça üretken YZ’nin mevcut durumu ve gelecekte yapabilecekleri hakkında abartılı haberler okuyoruz. Şirketler bu abartılı söylemlerin katkılarıyla hem yatırımcıları çekiyor hem de düzenlemelerden veya telif yasasından muafiyet gibi ayrıcalıklar talep ediyorlar.
Dördüncüsü, YZ oligarşisinin giderek daha fazla güç sahibi olması. Sosyal medya hakkında yaşadığımız sorunlar şimdi YZ’de daha ciddi boyutlarda karşımıza çıkıyor. ABD’de Büyük Teknoloji şirketleri karar süreçlerinde oldukça etkili ve hükümetler bu şirketleri dizginlemek için çok az şey yapıyorlar (ya da yapabiliyorlar). Avrupa ise tehlikenin daha farkında ve çeşitli düzenlemeleri hayata geçirmeye çalışıyor. Fakat orada da YZ şirketlerinin yoğun lobi faaliyetlerinin engeliyle ve yasal düzenlemeleri sulandırma girişimleriyle karşı karşıyalar.
İnsanlar akın akın üretken YZ’ye koşuyor. Neredeyse her büyük şirket, üretken YZ’nin güvenilirlikle ilgili bariz sorunlarına rağmen, rakiplerinin kendilerini geçeceğinden korkarak, bu teknolojiden yararlanmanın yollarını bulmak için umutsuzca yarışıyor. Böylece üretken YZ giderek yaygınlaşıyor. Fakat bu süreçte dünyayı ciddi tehditlerle karşı karşıya bırakıyor. Söz konusu tehditlerin bir kısmı üretken YZ’den önce de var olan ama üretken YZ’nin etkisini artırdığı ve kapsamını genişlettiği tehditler.
Üretken YZ ve Başlıca Tehditler
Dezenformasyon ve Mezenformasyon
Tehditlerin başında üretken YZ’nin siyasi dezenformasyonu (bilinçli ve kasten üretilen, paylaşılan ya da yaygınlaştırılan yanlış bilgi) otomatikleştirmesi geliyor. Dezenformasyon, yeni bir olgu değil; binlerce yıldır var. Marcus (2024) üretken YZ’yi AK-47’lere ve nükleer silahlara benzetiyor. Öldürmeyi daha hızlı ve daha ucuz hale getiren araçlar olarak AK-47’ler ve nükleer silahların piyasaya sürülmeleri savaşları önemli ölçüde etkiledi. Üretken YZ sistemleri de dezenformasyonun makineli tüfekleri (ya da nükleer silahları) ve dezenformasyonu daha hızlı, daha ucuz ve daha mükemmel hale getiriyorlar. Ayrıca kötü aktörlerin sadece seçimleri etkilemeye çalışmayacağını aynı zamanda piyasaları da etkilemeye çalışacağını dikkate almak gerekiyor. Yanlış bilgilendirme araçlarıyla piyasaları manipüle etmek isteyeceklerdi.
Aldatma niyeti olmadığında bile, LLM’ler kendiliğinden (kazara) yanlış bilgi üretebilir. Özellikte yanlış tıbbi tavsiyeler, mezenformasyona (herhangi bir kasıt olmaksızın paylaşılan yanlış bilgi) neden olabilir. Stanford’un İnsan Merkezli Yapay Zeka Enstitüsü tarafından yapılan bir çalışmada LLM’nin tıbbi sorulara verdiği yanıtların oldukça değişken, kimi zaman hatalı, kimi zaman da zararlı olduğu tespit edilmiş (https://hai.stanford.edu/news/how-well-do-large-language-models-support-clinician-information-needs).
Bu tür bir şeyin yüz milyonlarca insana ölçeklendirilmesi büyük zararlara neden olacaktır. Kimi zaman doktorlar kızsa kimi zaman da hastalar abartsa da bir çok insan sağlık sorunlarını araştırmak için interneti kullanıyor. Ama üretken YZ araçları, internette önemli değişiklikler yapacak. Örneğin, ChatGPT’ye k harfiyle başlayan bir Afrika ülkesi olmadığı, kendisinin bunu bilip bilmediği sorulduğunda bunu bildiğini ve k harfiyle başlayan bir Afrika ülkesi olmadığını söylemiş. Yanıtının devamında da en yakın ülkenin K sesiyle başlayan Kenya olduğunu, ama gerçekte K sesiyle telaffuz edildiğini belirtmiş. Üretken YZ’ler saçmalayabiliyor. Fakat daha kötüsü, bu ifadenin Google’ın eğitim setinde yer almış olması ve Google Bard’ın da aynı şeyi tekrarlaması. Marcus (2024), Google’ın en büyük korkusunun OpenAI’nin arama için onun yerini alması değil, YZ tarafından üretilen çöplerin interneti zehirlemesi olması gerektiğini düşünüyor.
(Soruyu ChatGPT’ye aşağıdaki biçimlerde sorduğumda aldığım yanıt:)

Derin Sahte
Yanlış bilgilendirmenin bir diğer özel durumu, yanlışlıkla veya kasıtlı olarak insanların itibarına zarar veren yanlış bilgilendirmeler. Üretken YZ yaratıcılarının (veya üretken YZ tedarik zincirindeki herhangi birinin) yanlış bilgilendirmelerden mevcut yasalar kapsamında sorumlu tutulup tutulamayacağı henüz net değil. Araçların kullanımı kolaylaştıkça, bu araçların kötü niyetle kullanımı da artacaktır. Rızaya dayalı olmayan derin sahteler her geçen gün daha gerçekçi hale geliyorlar ve kullanımları artıyor. Örneğin, geçen yıl erkek öğrenciler, kız sınıf arkadaşlarının sahte çıplak fotoğraflarını oluşturmak ve paylaşmak için üretken YZ’den yararlanmışlardı. Besteci ve teknoloji uzmanı Ed Newton-Rex sorunun aşağıdaki nedenlerden kaynaklandığını düşünüyor (https://x.com/ednewtonrex/status/1750927026666766357):
- Sonuçları ne olursa olsun, üretken YZ şirketlerinin “mümkün olduğunca hızlı ürün çıkarma” kültürü
- YZ şirketlerinde modellerinin ne için kullanıldığına dair gönüllü cehalet
- Bazı üretken YZ şirketlerinde son raddeye kadar güven ve güvenliğin tamamen göz ardı edilmesi
- İçeriklerine ilişkin gerekli özen gösterilmeden devasa, kazınmış görüntü veri kümeleri üzerinde eğitim
- Bir kez piyasaya sürüldükten sonra geri alınamayan açık modeller
- Büyük yatırımcıların içeriği bilerek olarak erişilebilir kılan şirketlere milyonlarca dolar akıtması
- Yasa koyucuların çok yavaş olması ve Büyük Teknoloji şirketlerinden çok korkması.
Üretken YZ, organize suç örgütleri tarafından kullanılabilir. Şimdiye kadarki en dikkat çekici dolandırıcılık ses klonlama teknolojisi ile gerçekleştirildi. Örneğin dolandırıcılar bir çok kez, bir çocuğun sesini klonlayıp klonlanmış sesle telefon görüşmesi yaptılar, çocuğun kaçırıldığını iddia ettiler ve fidye talep ettiler.
Sibergüvenlik
Üretken YZ, web sitelerine saldırmak ve yazılımlardaki “sıfırıncı gün” güvenlik açıklarını (geliştiriciler tarafından bilinmeyen) keşfetmek için milyonlarca kod satırını otomatik olarak taramak için de kullanılabilir. Bu iş, şimdiye kadar yalnızca uzman insanlar tarafından yapılabiliyordu. Daha korkuncu, güvenlik araştırmacılarının gösterdiği gibi, YZ destekli programlama araçlarının yine bir halüsinasyon sonucunda gerçekte var olmayan yazılım paketlerini ileri sürmesi ve saldırganların kolayca bu isimler altında sahte ve kötü amaçlı yazılım içeren paketler oluşturarak yayması olacaktır.
Ayrıca Marcus, ChatGPT’ye danışırken çoğu zaman dikkat etmediğimiz mahremiyet sorununa dikkat çekiyor. Üretken YZ’nin aynı zamanda bir ulusal güvenlik kabusu olabileceğini belirtiyor ve her bir YZ şirketinin içinde kaç tane yabancı hükümet ajanı çalıştığını; sorguların ve yanıtların akışına kaç kişinin erişimi olduğunu; kaç tanesinin çıktıları etkileyebilecek konumda olduğunu sorguluyor. Marcus (2024) bu soruları bir ABD vatandaşı olarak soruyor. Aslında bu, diğer ülkeler için çok daha kritik bir uyarı. Bu nedenle, güvenlik açısından hassas işlerde çalışan vatandaşların, üretken YZ’de yaptıkları her şeyin kaydedildiğini ve potansiyel olarak manipüle edilebileceğini varsaymaları gerekiyor.
Ön Yargı ve Şeffaflık
Üretken YZ, derin öğrenme sistemlerinden aldığı mirası da devam ettiriyor. YZ sistemlerinin insani kusurlarımızı azaltması ve daha tarafsız kararlar verebilmesi beklenmesine rağmen tam tersine ön yargılar, yeniden ve daha geniş kapsamda üretiliyor. Ön yargı, derin öğrenme sistemlerinde yıllardır devam eden bir sorun ve sorunun kesin bir çözümü yok. Ön yargı devam ediyor ve yeni yeni biçimlerde ortaya çıkıyor. Ayrıca mevcut yasalar bu gibi sorunlar karşısında yetersiz kalıyor. Örneğin bir kişi, iş başvurusunda bir ayrımcılığa maruz kaldığında sorunun kaynağını anlaması, anlasa bile hakkını arayabilmesi çok zor.
Büyük internet şirketleri insanları gözetleyerek ve verilerini kullanarak para kazanıyor. Sohbet robotları muhtemelen tüm bunları önemli ölçüde daha da kötüleştirecek. Şirketler, modellerin eğitimleri için kullanılan verinin kapsamı hakkında şeffaf değiller. Muhtemelen modeller şirketlerin ellerine geçen hemen hemen her şey kullanılarak eğitiliyorlar.
Daha da önemlisi LLM’ler klasik veritabanları değiller. Daha çok parçalanmış bilgi parçalarından oluşan dev torbalara benziyorlar. Kimse bu “dağıtılmış” bilgi parçalarının nasıl yeniden oluşturulabileceğini ya da oluşturulamayacağını gerçekten bilmiyor. İçeride bir kısmı özel olan pek çok bilgi var ve bilgisayar korsanlarının neye erişip erişemeyeceğini gerçekten söyleyemiyoruz. Sohbet robotlarını her zamanki konuşma rutinlerinden sapmaya zorlayarak, sistemlerden özel bilgilerin çekilebildiği örnekler var.
Büyük dil modelleri “kara kutular”; teknik olarak nasıl çalıştıklarını bilsek bile herhangi bir anda tam olarak ne çıktılar üreteceklerini bilemiyoruz. Farklı kişiler aynı soruya farklı yanıtlar alabiliyor. Ya da soru metninde, insanlar için ufak bir değişiklik, üretken YZ’lerin bambaşka yanıtlar vermesine neden olabiliyor. Üretken YZ yepyeni bir sorun yaratmadı. Ancak otomasyon ve yorumlanamayan kara kutuların birleşiminin mevcut sorunları çok daha kötü hale getirmesi muhtemeldir.
Telif Hakları
Üretken YZ’ler tarif ettiğiniz resimleri oluşturabilir, verdiğiniz bir konu hakkında düzyazı veya şiir üretebilir. Ama eğitim verilerine bağımlıdır ve “yaratıcı” ürünler ortaya koyarken geçmiş verilerden ne kadar yararlanacağını kestirmek zordur. Örneğin, gerçek bir sanatçıdan “hafif kılıçlı cübbeli adam” resmi istediğinizde Luke Skywalker dışında herhangi bir şey çizecektir. Buna karşın bir üretken YZ, Star Wars’tan bir Luke Skywalker görüntüsü sunabilir. Marcus ve Southen’ın (2024) çalışmalarında gösterdikleri gibi üretken YZ’nin görsel intihal sorunu var (bkz. https://spectrum.ieee.org/midjourney-copyright). Dolayısıyla bu sistemlerden elde ettikleri içeriklerin telif sorunu olmadığını düşünen kullanıcıların da! Bazı üretken YZ sistemleri, farkında olmaksızın intihal içeren çıktılar üretebilir ve bu da kullanıcıları telif hakkı ihlali iddialarıyla karşı karşıya bırakabilir. Marcus ve Southen (2024), üretken YZ şirketlerini daha fazla veri toplamaya ve modellerini büyütmeye iten baskının modelleri daha intihalci hale getirmiş olabileceğini düşünüyor. Ayrıca bir zamanlar Facebook’un artık yeni dönem de mahremiyetin önemini kaybettiğini savunması gibi üretken YZ şirketleri de telif hakkı yasalarının kendi çıkarları doğrultusunda yeniden yazılması gerektiğini öne sürüyorlar. Bu durum, sanatçıları ve yayınevlerini de harekete geçirdi. Örneğin Penguin Random House, Hem yeni hem de yeniden basılan kitapların standart telif hakkı sayfasında artık “Bu kitabın hiçbir bölümü yapay zeka teknolojileri veya sistemlerini eğitmek amacıyla herhangi bir şekilde kullanılamaz veya çoğaltılamaz” ifadesinin yer alacağını duyurdu (https://www.theverge.com/2024/10/18/24273895/penguin-random-house-books-copyright-ai).
Çevre
Son zamanlarda üretken YZ bağlamında tartışılan bir diğer sorun da bu sistemlerin çevreye etkileri. YZ modellerinin eğitim süreci binlerce megawatt saat elektrik tüketebilir ve yüzlerce ton karbon salabilir. Ayrıca, YZ model eğitimi, veri merkezlerindeki ısı atımı için çok miktarda tatlı suyun buharlaşmasına yol açar ve zaten sınırlı olan tatlı su kaynaklarına zarar verir. Özellikle fosil yakıtların yakılması yoluyla elektrik üretimi, hava kirliliğine, su kaynaklarında termal kirliliğe ve tehlikeli maddeler de dahil olmak üzere katı atıkların üretilmesine neden olur. Arizona ve Şili örneklerinde görüldüğü gibi, sunucu soğutma ve elektrik üretimi için kullanılan su, kuraklıkların artmasına neden olabilir.
Elektrik üretim sektörü, veri merkezlerinden gelen talebi karşılamak için yeterli elektriği sağlamanın çeşitli yollarını araştırıyor. Veri merkezlerinden gelen enerji tüketimi, Google, Meta, Amazon Web Services (AWS) vb şirketlerin artan elektrik talebini karşılamak için kömürlü termik santrallerden yararlanıyor. Bazı kömürlü termik santraller, veri merkezlerinin faaliyete geçmesi ya da planlama aşamasında olması nedeniyle daha fazla enerjiye ihtiyaç duyulan bölgelerde çalışmaya devam ediyor. Birkaç teknoloji grubu, elektrik ihtiyaçlarını karşılamak için küçük modüler reaktörlerin kullanımı da dahil olmak üzere nükleer enerji seçeneğini inceliyor. Ayrıca doğal gaz çözümü de gündemde (https://www.powermag.com/power-demand-from-data-centers-keeping-coal-fired-plants-online/).
Güvenilir Olmayan Sistemlere Aşırı Güven
En büyük tehdit ise tam anlamıyla güvenilir olmayan sistemlere aşırı güvenden kaynaklanıyor. Üretken YZ etrafındaki medya heyecanı o kadar yüksek ki, birçok insan ChatGPT’yi potansiyel olarak internetten daha muhteşem bir teknoloji olarak görüyor. Güvenlik açısından kritik uygulamalarda, LLM’lere tam hakimiyet vermek, özellikle halüsinasyon, tutarsız muhakeme ve güvenilmezlikle ilgili sorunları göz önüne alındığında büyük bir hata olacaktır.
Bu tehditleri düşününce robotların dünyanın ele geçirmesi ve insanlığın sonunu getirmesi pek ihtimal dahilinde görünmüyor. Çünkü insanlığı büyük bir kaos bekliyor ve bu kaos robotlara ele geçirilebilecek bir dünya bırakmayabilir. Buna karşın Marcus (2024), teknoloji karşıtı bir pozisyonda yer almıyor, tam tersine teknolojik gücün insanlığa yararlı olabilmesi için bu gücün düzenlenmesi gerektiğini savunuyor. Kitabının adı da buna uygun: Silikon Vadisi’ni Evcilleştirmek: Yapay Zekanın Bizim İçin Çalışmasını Nasıl Sağlayabiliriz? (Taming Silicon Valley: How We Can Ensure That AI Works for Us).
Şirketler, Hükümetler ve Düzenleme
Silikon Vadisi, dışarıdan düzenleme fikrine karşıdır. Bunun için de yoğun lobi faaliyetleri yürütürler. Google ve Meta gibi şirketler her yıl lobi faaliyetleri için on milyonlarca dolar harcar. CNBC, 2 Şubat 2024’te yayımlanan haberinde düzenleme çağrılarının artmasıyla YZ lobiciliğinin de %185 arttığını yazıyor. YZ ile ilgili lobi faaliyetleri 2023 yılında 450’den fazla kuruluşun katılımıyla daha da artmış (https://www.cnbc.com/amp/2024/02/02/ai-lobbying-spikes-nearly-200percent-as-calls-for-regulation-surge.html).
Ayrıca Büyük Teknoloji şirketlerinde çalışan çocukları olan politikacılar ya da büyük teknoloji şirketlerinde yatırımları olan eşler gibi kamuya açıklanmayan konular da var. Devlette çalışan kişiler, daha sonra büyük teknoloji şirketlerinin en üst düzeylerinde yer alabiliyor. Bir zamanlar İngiltere Başbakan Yardımcısı olan Nick Clegg, şimdi Meta’da, Zuckerberg’den sonraki en güçlü yöneticilerden biri. Washington eskiden Google için çalışan insanlarla dolu ve Google da eskiden Washington’da çalışan insanlarla dolu.
Şirketlerle hükümet yetkilileri arasındaki ilişkiler pek hoş görünmüyor. Fakat daha büyük sorun, hükümetlerin bağımsız (!) bilim insanlarını, etik uzmanlarını ve sivil toplumdan diğer paydaşları sürece dahil etmede yetersiz kalması. Şirketler, “zorunlu değil gönüllü taahhütler”de bulunmayı istiyorlar. Sıkça şeffaflık ve hesap verebilirlik hakkında konuşsalar da hiçbiri şeffaflık veya hesap verebilirliği sağlamak için yasal olarak zorunlu olmak istemiyorlar.
Marcus (2024), karşı karşıya olduğumuz tehditlerin yasal bir düzenleme olmadan ortadan kaldırılamayacağını düşünüyor. Hayatımızın her alanında düzenlemeler var. Her isteyenin keyfince uçak uçurmaya çalışması veya bir ilaç şirketi açması nasıl kulağa saçma geliyorsa YZ’nin düzenlenmemesi veya düzenlenmesinin hiçbir sorumluluk almayan şirketlere bırakılması da bir o kadar saçma. Kaldı ki insanlığın sonunu getirebilecek (!) bir güçten söz edenlerin düzenlemeye yanaşmaması da ilginç oluyor.
Çoğunlukla, çok göze batan bazı sorunlar dışında, teknoloji şirketleri yaptıklarının hiçbirinden sorumlu tutulmadılar. Neden oldukları sonuçları pek umursamadılar ve umursadıklarında da bu genellikle kısa süreli oldu. Aslında teknoloji şirketlerinin ne zaman, hangi olay kapsamında sorumlu tutulacakları açık seçik bir konu değil. Örneğin araba üreticilerini, arabalarının kullanıldığı her banka soygunundan sorumlu tutmak istemezsiniz. Ancak silah üreticileri veya sigara şirketlerinden sorumluluk bağlamında daha fazla beklentimiz vardır.
Yakın tarihli bir MIT çalışma raporunda bir kullanıcının ne zaman sorumlu olması gerektiği ve bir üreticinin ne zaman sorumlu olması gerektiği bir metafor üzerinden tartışılıyor (Huttenlocher, Ozdaglar ve Goldston, 2023):
Ekmek kızartma makinelerinin doğası ve elektriğin tehlikeleri yaygın olarak bilinmiyorsa, bir kişi ekmek kızartma makinesine çatal koyduğu için kişisel olarak sorumlu tutulamaz… Yapay zeka sistemi sağlayıcısı, bir kullanıcının bir kullanımın sorumsuz olduğunu ve öngörülemez veya engellenemez olduğunu bilmesi gerektiğini gösteremediği sürece çoğu durumda bir sorundan sorumlu tutulmalıdır.
Büyük Teknoloji şirketleri de sorunların ve sorumluluklarının farkındalar. Google’ın eski CEO’su Eric Schmidt Meet the Press’e verdiği demeçte, teknolojinin çok hızlı yaygınlaştığını ve bu konudaki endişesini dile getirdikten sonra mevcut şirketlerin makul sınırları tanımlamasını tercih ettiğini belirtiyor. Çünkü sektörde olmayan birinin neyin mümkün olduğunu anlamasının mümkün olmadığını iddia ediyor (https://futurism.com/the-byte/eric-schmidt-ai-regulate-itself).
Marcus (2024) ise kümesin tilkiye emanet edilemeyeceğini ve dışarıdan, bağımsız bir gözetimin daha doğru olacağını savunuyor. Düzenleyici kurum, bazen birbiriyle çelişen politika hedeflerini ilerletmek ve dengelemek ve değişikliklere uyum sağlamak için yeterli düzenleme yetkisine sahip olmalı. Ancak bağımsız gözetimdeki bağımsızlık sınırsız olmamalı. Kongre’ye, mahkemelere ve kamuoyuna karşı sorumlu olmalı ve partizan istismarı önlemek için içeriği düzenleme yetkisi kısıtlanmalı. Buna ek olarak, işleyişini çevreleyen kurallar, düzenlemeye çalıştığı endüstriler tarafından ele geçirilme risklerini en aza indirecek şekilde dikkatlice yapılandırılmalıdır. Şirketlerin tanımlayacağı sınırlar yerine Büyük Teknoloji şirketleri tarafından finanse edilmeyen ve gerektiğinde şirketlere yaptıkları/yapmak istedikleri şeyin saçmalık olduğunu söyleyebilecek kadar zeki, eğitimli ve bağımsız bilim insanlarına ihtiyaç var. Ayrıca şirketler ve hükümetler arasındaki ilişkiler düşünüldüğünde düzenleme işinin kesinlikle sadece hükümet çalışanlarına bırakılmaması gerekiyor.
Marcus (2024), havacılıktaki düzenleme mekanizmalarının YZ için bir esin kaynağı olabileceğini düşünüyor. Ticari hava yolları, 30.000 feet yükseklikte saatte yüzlerce mil hızla seyahat etmelerine rağmen mil başına otomobillerden çok daha güvenlidir. Bunun nedeni birden fazla güvenlik katmanının bulunmasıdır. Yeni bir uçağın nasıl geliştirileceği, nasıl sertifikalandırılacağı ve bakımını nasıl yapılacağı hakkında katı kurallar vardır. Hava trafik kontrol yazılımının kalite kontrolü için bir yazılım vardır. Tüm bu sıkı prosedürlere rağmen hatalar yaşanabilir ama önemli olan hatalardan ders çıkarabilmektir. Bu nedenle, herhangi bir kazayı soruşturmak ve bu soruşturmalardan öğrenilenleri paylaşmak için kurumlar vardır. Dolayısıyla havacılıkta düzenleme, hem önceden düşünülmüş hem de sonradan düşünülmüş tedbirleri içerir. Bu da uçakların güvenliğini artırır.
Aslında istisna olan neoliberal politikaların doludizgin ilerlediği bir dönemde gelişip serpilen bilişim sektörü. Çünkü yaşamın her alanında çeşitli düzenlemeler var. Örneğin, bir ev inşa ettiğinizde, bir plan önerirsiniz; belediye bu planı onaylar; inşaat müfettişleri süreç boyunca düzenli olarak gelir ve sonunda tamamlanan işi kontrol ederler. Arabalar uçaklardan daha az düzenlemeye tabi olsalar da trafiğe çıkmak için bazı kriterleri sağlamak zorundadırlar.
YZ’de de en azından iki katmanlı bir düzenlemeye ihtiyaç vardır. Modeller, yaygın olarak kullanımına geçilmeden önce lisanslanmalıdır. Piyasaya sürüldükten sonra da düzenli olarak denetlenmelidir. Birinci katmanda ilaç sektörünün işleyişi örnek alınabilir. Bir şey ne kadar yeniyse ve ne kadar fazla risk oluşturuyorsa, onay için çıta o kadar yüksek olmalıdır. İkinci katman için ise aşağıdaki konular önem kazanmaktadır:
- Sürekli, risk temelli değerlendirmeler ve denetimler
- Düzenleyici kurumların kritik güvenlik kanıtlarını doğrudan değerlendirebilmeleri için güçlendirilmesi
- Düzenleyicilerin ve dış değerlendiricilerin bağımsızlığı
- Değerlendiriciler ve sivil toplum için modellere yapılandırılmış erişim
- İspat yükünü geliştiricilere kaydıran bir ön onay süreci
Marcus (2024), devletin düzenleme sürecindeki rolünün mikro yönetim değil, riskleri belirlemek ve bu riskleri azaltmak için davranışsal beklentiler oluşturmak ve daha sonra bu politikaların sürekli değişen teknoloji ve pazar ortamında uygulanıp uygulanmadığını denetlemek olması gerektiğini savunuyor. Ama ulusal düzeyde bir düzenleme de yeterli olmayacaktır. Ulusal hükümetler, egemenliklerini büyük teknoloji şirketlerine bırakmak istemiyorlarsa veya piyasaları ve vatandaşları daha önce görülmemiş ölçüde manipüle etmek için yeni teknolojileri kullanabilecek uluslararası çetelere teslim olmak istemiyorlarsa uluslararası düzenleyici mekanizmaların oluşturulması için çaba göstermelidir.
***
Özetle Marcus (2024) YZ’nin durdurulmasını değil, onun güvenliği (safety), daha iyi olması ve güvenilirliği (trustworthy) için ısrarcı olmamız gerektiğini savunuyor. Bu doğrultuda yönetimlerden aşağıdakileri talep etmemiz gerektiğini vurguluyor:
- Modellerin tazminat ödenmeksizin telif hakkıyla korunan çalışmalarla eğitilmemesi
- Modellerin, veri sahiplerinin izni olmadan eğitilmemesi; eğitimde kullanım için onayın şart olması
- Zorlamanın olmaması. Verileri, eğitim modelleri ve hedefli reklamcılık amaçları için kullanılabilir hale getirmeden kullanıcılara arabalarını, telefonlarını, uygulamalarını vs kullanabilmeleri konusunda seçenek sunulması
- Hangi verilerin toplandığı ve nasıl paylaşıldığı konusundaki ifadelerde açıklık
- Veri kaynakları, algoritmalar, kurumsal uygulamalar ve neden olunan zararlar konusunda şeffaflık
- YZ’nin nerede, ne zaman ve nasıl kullanıldığına dair şeffaflık
- Çevresel etkiler konusunda şeffaflık
- Neden olunan zararlar için açık sorumluluk
- Bilim insanlarının ve sivil toplumun bağımsız gözetimi
- Katmanlı gözetim
- Büyük ölçekli konuşlandırmalar (deployment) için risklere karşı faydaların konuşlandırma öncesi değerlendirilmesi
- Konuşlandırma sonrası denetim
- Topluma fayda sağlayan YZ için vergi teşvikleri
- YZ okuryazarlığı için kapsamlı programlar
- Çevik ve güçlendirilmiş bir YZ ajansı
- YZ’nin uluslararası yönetişimi
- Güvenilir yapay zeka oluşturmaya yönelik yeni yaklaşımların araştırılması
Bunları yapabilmek için de halkın örgütlenmesi ve her masada olması gerekiyor. Çünkü YZ’nin çılgın (!) ilerleme süreci şimdilerde daha çok Büyük Teknoloji şirketlerinin ve hükümet yetkililerinin inisiyatifinde gerçekleşiyor.
Kaynaklar
Bubeck, S., Chandrasekaran, V., Eldan, R., Gehrke, J., Horvitz, E., Kamar, E., … & Zhang, Y. (2023). Sparks of artificial general intelligence: Early experiments with gpt-4. arXiv preprint arXiv:2303.12712.
Huttenlocher, G., Ozdaglar, A. & Goldston, D. (2023), A Framework for U.S. AI Governance: Creating a Safe and Thriving AI Sector, https://computing.mit.edu/wp-content/uploads/2023/11/AIPolicyBrief.pdf, son erişim 20.10.2024
Marcus, G. F. (2024). Taming Silicon Valley: How We Can Ensure That AI Works for Us. MIT Press.
Marcus, G., & Southen, R. (2024). Generative ai has a visual plagiarism problem. IEEE Spectrum, 1.
Mirzadeh, I., Alizadeh, K., Shahrokhi, H., Tuzel, O., Bengio, S., & Farajtabar, M. (2024). GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models. arXiv preprint arXiv:2410.05229.
i Vetokrasi: Hiçbir kurumun tek başına karar almak ve etkin sorumluluk almak için yeterli güce sahip olamayacağı, bir yönetim sistemi.
ii Gerontokrasi: Yaşlı insanlar tarafından yönetilen bir devlet, toplum veya grup.
İlk Yorumu Siz Yapın