Facebook/Cambridge Analytica skandalının ardından teknoloji şirketlerinin iş modelleri mercek altına alındı ve faaliyetleri sorgulanmaya başlandı. Google’ın insansız hava aracı saldırılarını iyileştirebilecek bir Pentagon programına katılması şirket çalışanları tarafından protesto edildi. Diğer yandan YZ’nin (yapay zekâ) gündelik hayattaki kullanımından kaynaklı (otomatik karar sistemlerinin kararları, mahremiyet, yüz tanıma sistemleri vb) sorunlar da giderek kendini gösteriyordu. Bu koşullarda, şirketlerin faaliyetlerinin düzenlenmesi gerektiği düşüncesi kamuoyunda ve siyasetçiler arasında yaygınlaşırken YZ etiği şirketler için hem dışarıdan düzenlemelere karşı çıkmanın hem de şirket dışında ve içinde sarsılan imajlarını toparlamanın bir aracı haline geldi. Veri ve bundan sağlanan YZ’ye dayalı kapitalizminin ortaya çıkardığı sorunların bilgisayar bilimcileri ve mühendislerinin etik davranışlarının geliştirilmesine daha fazla odaklanılmasıyla giderilebileceği iddia edildi. Şirketler, sorumlu YZ, güvenilir YZ, sosyal açıdan faydalı YZ, demokratik YZ, insan merkezli YZ vb terimler ortaya attılar. Daha sonra hükümetler, uluslararası örgütler ve sivil toplum kuruluşları YZ etiği furyasına katıldılar.
2020’nin başlarında, dünya çapında 167 YZ etiği yönergesi vardı. 2023’te bu sayı arttığı gibi YZ etiği, YZ’nin olumsuz etkileri hakkındaki tartışmalarda daha etkili ve yönlendirici olmaya başladı. Geçtiğimiz haftalarda YZ etiği alanında üç önemli gelişme yaşandı. Birincisi, Microsoft’un YZ etiği ekibinin çalışmalarını sonlandırmasıydı. Mühendis, tasarımcı ve felsefecilerden oluşan ekip, “etik ve sorumlu yapay zeka inovasyonuna rehberlik etmek” ile görevliydi (https://www.cumhuriyet.com.tr/bilim-teknoloji/microsoft-yapay-zeka-etik-ekibini-isten-cikardi-2061158). Microsoft çalışanlarına göre şirketin sorumlu YZ ilkelerinin geliştirilen ürünlerin tasarımına gerçekten yansıtılmasını sağlamada etik ve toplum ekibinin kritik bir rolü olmuştu. Buna karşın Microsoft’un hala YZ girişimlerini yönetmek için kurallar ve ilkeler oluşturmakla görevli aktif bir Sorumlu Yapay Zeka Ofisi bulunuyor ve şirket, son işten çıkarmalara rağmen bu alandaki genel yatırımının arttığını savunuyor (https://www.platformer.news/p/microsoft-just-laid-off-one-of-its).
İkincisi, FLI’nın (Yaşamın Geleceği Enstitüsü – Future of Life Institute), 22 Mart’ta “Dev Yapay Zeka Deneylerini Duraklatın” başlıklı bir açık mektup yayımlamasıydı. İmzacılar arasında Yoshua Bengio, Stuart Russell, Gary Marcus gibi YZ dünyasının önemli isimlerinin yanında Elon Musk, Steve Wozniak, Yuval Noah Harari, Daron Acemoğlu gibi isimler de vardı. Mektupta YZ sistemlerinin artık genel görevlerde insanlarla rekabet edebilir hale geldiğine dikkat çekiliyor ve şu sorular soruluyordu:
- Makinelerin bilgi kanallarımızı propaganda ve gerçek olmayan şeylerle doldurmasına izin vermeli miyiz?
- Tatmin edici olanlar da dahil, tüm işleri otomatikleştirmeli miyiz?
- Eninde sonunda bizi geçebilecek ve yerimizi alabilecek zihinler geliştirmeli miyiz?
- Medeniyetimizin kontrolünü kaybetme riskine girmeli miyiz?
Açık mektupta, bu gibi kararların seçilmemiş teknoloji liderlerine bırakılamayacağı belirtiliyordu. Güçlü YZ sistemlerinin geliştirilmesine devam etmeden önce risklerin yönetilebilirliğinden emin olunmalıydı. Bu nedenle, tüm YZ laboratuvarlarına GPT-4’ten daha güçlü teknolojiler geliştirmeden önce en az altı aylık bir ara verme çağrısı yapılıyordu. Bu altı aylık ara, dış uzmanlar tarafından titizlikle denetlenen ve gözetilen ileri düzeyde YZ’ler için gerekli güvenlik protokollerini ortaklaşa geliştirmek ve uygulamak için kullanılacaktı. Mektupta bu adımın genel olarak YZ’nin gelişiminde bir duraklama anlamına gelmediği, sadece öngörülemez kara kutu modellerine yönelik tehlikeli yarıştan geri adım atılması anlamına geldiği belirtiliyordu. Ayrıca doğruluk, şeffaflık ve yorumlanabilirlik vurgusu yapılıyordu (https://futureoflife.org/open-letter/pause-giant-ai-experiments/).
Açık mektup, makinelere programlanan ırkçı veya cinsiyetçi ön yargılar gibi YZ ile ilgili daha acil sorunlar yerine hayali kıyamet senaryolarına öncelik vermekle eleştirildi. Daha önce Google’da etik YZ araştırmalarını yönetmiş olan ve Hugging Face adlı YZ firmasının baş etikçisi olan Margaret Mitchell, Reuters’a verdiği demeçte “GPT4’ten daha güçlü” ifadesindeki muğlaklığa işaret etti ve mektubun pek çok tartışmalı fikri verili kabul ederek YZ konusunda FLI destekçilerinin yararına olacak bir dizi öncelik ve anlatıyı öne çıkardığını savundu (https://www.theguardian.com/technology/2023/mar/31/ai-research-pause-elon-musk-chatgpt).
Üçüncüsü, YZ’nın gelişimine önemli katkıları olan Geoffrey Hinton’ın Google’dan ayrıldıktan sonra teknolojinin riskleri hakkında yaptığı açıklamalardı. Hinton, YZ’nin iklim krizinden daha tehlikeli olabileceğini iddia ediyordu. İklim krizini küçümsemediğinin özellikle altını çizen Hinton, iklim krizinin aşılması için yapılması gerekenlerin belli olduğunu belirtiyor. Ancak YZ’de yapılması gerekenler hiç de net değil. Hinton, “Dev Yapay Zeka Deneylerini Duraklatın”da belirtildiği gibi YZ’nin insanlık için varoluşsal bir tehdit olabileceği hakkındaki endişeleri paylaşmakla beraber araştırmaların duraklatılması gerektiğine katılmıyor. Tam tersine, daha sıkı çalışmayı ve bu konuda ne yapabileceğimizi bulmak için daha fazla kaynak ayırmayı savunuyor (https://www.reuters.com/technology/ai-pioneer-says-its-threat-world-may-be-more-urgent-than-climate-change-2023-05-05/).
YZ’nin gelişimine öncülük eden şirketlerin YZ ile gündeme gelen sorunları tartışması, sorunlar için çözümler geliştirmeye çalışması ve özellikle FLI metninde belirtildiği gibi insanların gelecekleri hakkındaki kararların seçilmemiş teknoloji liderlerine bırakılamayacağı düşüncesi önemli. Ama diğer yandan şirketler YZ etiğini kuralsızlaştırmayı, kendi kendini düzenlemeyi veya piyasa güdümlü yönetişimi haklı çıkarmak için kullanma eğilimindeler. Teknoloji şirketleri tarafından etik dilin bu şekilde artan şekilde araçsallaştırılması “etik göz boyama” (ethics washing) olarak adlandırılıyor. Etik göz boyama, genellikle teknoloji şirketlerinin kurumsal iletişim stratejisinin parçası olarak ortaya çıkıyor (Bietti, 2020).
Etik Göz Boyama
YZ’de etik söylemi o kadar yaygınlaştı ki teknoloji şirketleri, YZ ürünlerinin üretimini son derece etik bir çaba olarak görmeye ve göstermeye başladılar. IBM YZ etiğini, veri bilimcileri ve araştırmacıları, YZ sistemlerini bir bütün olarak topluma fayda sağlamak için etik bir şekilde oluşturmaya yönlendiren bir çerçeve olarak tanımlıyor. Tencent, Nuh’un Gemisi’nin insan uygarlığının ateşini koruduğu gibi YZ’nin sağlıklı gelişiminin de “etik gemi” tarafından garanti altına alınması gerektiğini ileri sürüyor. Microsoft insanı ilk sıraya koyan etik ilkeler tarafından yönlendirilen YZ’nin geliştirilmesinde kararlı olduğunu belirtiyor. Google, herkes için işe yarayan bir YZ oluşturmaktan söz ediyor. Hatta şirketler iyi ve sorumluluk sahibi YZ’nin iyi iş anlayışıyla aynı anlama geldiğini iddia ediyor (Steinhoff, 2023).
Teknoloji şirketleri son yıllarda şirket içinde geliştirilen teknikler ve ürünler hakkında etik düşünceyle meşgul olabilecek uzmanlardan oluşan kurullar oluşturuyorlar ve ahlak felsefecilerini işe alıyorlar. Hesap verebilirlik ve yönetişim için bünyelerine yeni bir katman ekleyerek kendilerini dizginleyici kontrollere ve dahili kısıtlamalara tabi tutmaya istekli olduklarını göstermeye çalışıyorlar. Bietti (2020), iyi niyetlere rağmen felsefecileri veya etikçileri teknoloji şirketlerine yerleştirmenin iki ucu keskin bir kılıç olduğunu ve bunun şirketleri tüketiciler için daha koruyucu olan kapsamlı düzenlemelerden alıkoyabildiğini belirtiyor.
Şirketlerin dışarıdan düzenleme girişimlerine yerine öz düzenlemeyi tercih etmesi veya YZ etiğini kendi reklamı için kullanması ilk başta zararsız gibi görünüyor. Üstelik bazı durumlarda öz denetim sadece tolere edilebilir değil, aynı zamanda memnuniyet vericidir. Örneğin bir kamu kurumunun düzenleyici müdahalesinin etkili olma ihtimalinin düşük olduğu ve öz denetim yaklaşımının bireyler ve toplum için önemli politika iyileştirmelerine yol açabileceği durumlar olabilir. Ayrıca şirketlerin işleriyle ilgili olumlu bir imaj yaratmaya yönelik girişimleri finanse etmek ve geliştirmek istemesi, bu doğrultuda kendini tanıtma ve savunma faaliyetlerine girmesi yanlış değildir. Ama FOB’da (Facebook Oversight Board – Facebook’un Gözetim Kurulu) olduğu gibi toplumsal çıkarlara aykırı bir durum gelişebilir (age).
İfade özgürlüğünü düzenleme girişimlerine karşı ABD’de bir hassasiyet vardır. Normal şartlarda şirketlerin kendi kendini düzenlemesi fikri daha çok desteklenir. Dolayısıyla Facebook’ta çevrimiçi konuşmanın düzenlenmesi amacıyla tartışmalı kullanıcı içeriğinin kabul edilebilirliğine karar verecek olan FOB kurulur. FOB, dahili bir kurul olmasına karşın dışarıdan uzmanların da yer aldığı yarı yargısal bir kurumdur. Kurul, “modern çağın en iddialı yasa yapma projelerinden biri” olarak övülür. Kurul gerekli şeffaflığı sağlayacak ve içerik denetiminin adil bir şekilde yapacaktır. Fakat böyle bir kurul kullanıcılardan çok Facebook’un kendi çıkarlarına hizmet eder. İlk olarak FOB Facebook’u, ulusal veya uluslararası mahkemelerin müdahalesine, hükümetlerin düzenleme girişimlerine karşı korur. İkincisi, dikkati içerik denetimi ve topluluk yönergelerine kaydırarak Facebook’un haber akışı algoritmalarını istediği gibi geliştirmeye devam etmesine ve düzenleyicilerin veya mahkemelerin müdahalesi olmadan bireylere şirket için kazançlı içerik göstermeye devam etmesine olanak tanır. Bu nedenle, FOB gibi öz denetim girişimlerinin acil sorunları perdeleyip perdelemediğine, uzun vadede telafisi mümkün olmayan zararlara neden olup olmadığına bakmak gerekir. YZ etiğini bu bağlamda ele alan Bietti (2020) üç temel soruna işaret ediyor.
Birincisi, şirketlerin veya etik kurullarının felsefi sorgulamaları, şirketlerin çitlerle çevrilmiş özel mülkiyetli alanlarında devam ettiği sürece bundan asıl yarar sağlayanın toplum değil şirketin kendisi olması daha olasıdır. Ayrıca dahili YZ etik komitelerinin kararları, üst yönetimin onayına ve şirket finansmanına bağlıdır. Şirketin yardımseverliğine (!) olan bu bağımlılık, şirket suistimali vakalarını ele alınmasında (daha doğrusu alınamamasında) etkili olur. Şirketlerin etik kurullarında yer alan felsefecilerin hareket alanları şirketler tarafından kısıtlanabilmektedir. Örneğin, Apple’da olduğu gibi bir felsefecinin şirket için çalışmaya başlamasıyla beraber toplum önüne çıkışı yasaklanabilir ya da Microsoft’ta olduğu gibi YZ etik kuruluna kararlarının nedenlerini açıklama şansı verilmez. Daha incelikli kısıtlama biçimi ise şirketlerin kendi çıkarlarıyla uyumlu araştırma ve politika girişimlerini finanse etmeleri, belirli kişi ve politikaları öne çıkarmalarıdır.
İkinci sorun ise söz konusu uygulamaların aynı zamanda iyi niyetle veya genel adaleti sağlama amacı ile yapılıp yapılmadıklarıdır. Etik ilkeler hakikat, adalet veya toplumun refahı gibi bağımsız olarak değerli hedeflerin peşinden gidildiğinde bir değere sahiptir. Bunun yerine para kazanmak, işverenleri memnun etmek ya da onur ve takdir elde etmek için üstlenildiklerinde uygulamaların içsel değeri ahlaki olarak lekelenir. Felsefecilerin ve diğer etik kurul üyelerinin şirketler ve kurumsal ortamlarda yapmalarına izin verilenin ötesine geçebilmeleri gerekir. Örneğin, bir yüz tanıma algoritmasının beyaz insanları sistematik olarak siyah insanlardan daha olumlu tanımladığı için gözden geçirilmesi gerektiğini söylemek doğrudur; ama eksiktir. Bu tür bir ön yargının düzeltilmesi, algoritmanın düzeltilmesinden daha fazlasını gerektirir. Algoritmanın siyahlara telafisi mümkün olmayan zararlar verebilecek ortamlarda kullanılmadığından emin olunmalıdır. Ayrıca bu tür algoritmaların kullanımından kaçınmayı ve bunların yerine insan karar verme mekanizmasını kullanmayı da savunabilmelidirler.
Üçüncüsü, şirketlerin etik kurullarını yeterli görerek şirket faaliyetlerini kamu denetiminden muaf tutmak şirketleri güçlendirirken yeni teknolojileri denetleme görevinin finansal olanakları güçlü hükümetlerden yetersiz olarak finanse edilen aktivist gruplara kaymasıdır. Bu kayma farkındalık artırma çabalarını zayıflattığı gibi yapısal adaletsizlik veya yıkıcı değişim sorunlarını marjinalleştirir. Kamuoyunun dikkati düzeltilebilir ince ayarlar etrafında toplanarak tartışmanın kapsamı daraltılır.
Sermaye ve Etik
YZ etiği, YZ endüstrisinin çıkarları etrafında şekillenir. Yazının başında aktardığım gibi FLI’nın açık mektubunu ırkçı veya cinsiyetçi ön yargılar gibi YZ ile ilgili daha acil sorunlar yerine hayali kıyamet senaryolarına öncelik vermekle eleştirenleri de bu bağlamda değerlendirebiliriz. Örneğin, “Makinelerin bilgi kanallarımızı propaganda ve gerçek olmayan şeylerle doldurmasına izin vermeli miyiz?” GPT4 ile daha da önem kazanan can alıcı bir sorundur. Fakat YZ etiğinin etiğe yaklaşımı daha çok hesap verebilirlik, mahremiyet ve adalet çerçevesinde gerçekleşiyor. Hagendorff’un (2020) altını çizdiği gibi hesap verilebilirlik, mahremiyet ve adalet, zaten teknik çözümlerin geliştirilebileceği ve uygulanabileceği alanlar. Jobin, Ienca ve Vayena (2019) da YZ etiğinde şeffaflık, adalet ve hakkaniyet, zarar vermeme, sorumluluk ve mahremiyetin yaygınlığına işaret ediyorlar. Zarar vermeme dışındaki konularda teknik çözümler oldukça yaygın. Tıptan transfer edilen “zarar vermeme” ise açıkça zarar veren ürünler geliştiren şirketlerin pek bulunmadığı bir YZ endüstrisi için can alıcı bir konu değil.
Buna karşın teknik düzeltmelere daha az uygun olan sorunlar dışındakiler şirketlerin çizdiği YZ etiği çerçevesinde kendine pek yer bulamıyor. Neredeyse hiçbir YZ etiği yönergesi bakım, yetiştirme, yardım, refah, sosyal sorumluluk veya ekoloji konularına yer vermiyor (Hagendorff, 2020). Sürdürülebilirlik ve dayanışma konuları bu yönergelerde yeterince yer almıyor (Jobin vd., 2019). Şirketler, bu eleştiriler karşısında tamamen sessiz kalmıyor ve YZ etiği yönergelerinde bazı güncellemeler yapıyorlar. Örneğin Google artık, çok çeşitli sosyal ve ekonomik faktörleri dikkate alacağını ve genel olarak olası faydaların öngörülebilir riskleri ve olumsuzlukları büyük ölçüde aştığına inandıkları durumlarda ilerleyeceklerini ve faaliyet gösterdikleri ülkelerde kültürel, sosyal ve yasal normlara saygı göstermeye devam edeceklerini belirtiyor (https://ai.google/responsibility/principles/). Bu düzeltmelere rağmen ön yargı, güvenlik, hesap verebilirlik, mahremiyet, bilimsel mükemmellik ve erişilebilirlik konuları YZ etiği yönergelerindeki ağırlığını devam ettiriyor (Steinhoff, 2023). YZ etiği, sosyal adalete yönelik gerçek bir girişim başlatmaktan ziyade, büyük ölçüde rekabet avantajı elde etmek isteyen (firmalar, endüstriler, uluslar arasında) veya düzenleme baskısında kaçınmaya çalışan teknoloji devlerinin bir aracı haline gelmiş durumda.
Google örneğinden yola çıkarak şirketlerin eleştirilere kulak verdiği ve etik yönergelerinde bu doğrultuda düzeltmeler yaptığı düşünülebilir. Ancak sermaye ve etik çelişkisi üzerinde duran Steinhoff (2023), sermayenin tek ahlaki yasasının artı-değeri artırmak olduğunu vurguluyor. Üstelik bu sonuca varmak için marksist veya sosyalist olmaya da gerek yok. Neoliberalizmin önde gelen isimlerinden Milton Friedman da iş dünyası için mümkün olan tek sosyal sorumluluğun kârını artırmak olduğunu yazıyor (age):
Şirket yöneticisinin iş adamı sıfatıyla ‘sosyal sorumluluğu’ olduğunu söylemek ne anlama gelmektedir? Eğer bu ifade saf bir retorik değilse, kendi işverenlerinin çıkarına olmayan bir şekilde hareket etmesi gerektiği anlamına gelmelidir.
Bir diğer deyişle, kapitalist işletmelerde olduğu gibi etik yapay zeka da çözülmez bir çelişkiyle karşı karşıyadır. Çünkü herhangi bir çözüm, yapay zeka üreten sermayenin sermaye olarak yetersiz bir şekilde işlemesini gerektirecektir. Sermaye de buna yanaşmayacağına göre teknoloji şirketlerinin faaliyetlerinin şirket içi etik kurullar yerine şirket dışındaki ulusal ve uluslararası kuruluşlar tarafından denetlenmesi daha etkili bir çözüm olacaktır.
Kaynaklar:
Bietti, E. (2020). From ethics washing to ethics bashing: a view on tech ethics from within moral philosophy. In Proceedings of the 2020 conference on fairness, accountability, and transparency (pp. 210-219).
Hagendorff, Thilo. “The ethics of AI ethics: An evaluation of guidelines.” Minds and machines 30, no. 1 (2020): 99-120.
Jobin A, Ienca M, Vayena E (2019) The global landscape of AI ethics guidelines. Nature Mach Intel 1(9):389–399.
Sloane, M. (2019). Inequality is the name of the game: thoughts on the emerging field of technology, ethics and social justice. In Weizenbaum Conference (p. 9). DEU.
Steinhoff, J. (2023). AI ethics as subordinated innovation network. AI & SOCIETY, 1-13.
İlk Yorumu Siz Yapın