Yapay Zekâ (YZ) Eylem Zirvesi, 10-11 Şubat 2025 tarihlerinde Paris’te düzenlendi. Fransa ve Hindistan’ın eş başkanlığında düzenlenen zirvede dünyanın önde gelen YZ şirketlerinin liderleri (OpenAI’dan Sam Altman, Anthropic’ten Dario Amodei ve Google DeepMind’dan Demis Hassabis), akademisyenler, sivil toplum temsilcileri ve politikacılar bir araya geldi.
Roose (2025), 10 Şubat’ta yayımlanan yazısında zirvenin ilk gününü değerlendiriyor ve beş konuya dikkat çekiyordu. Birincisi Avrupa’nın tereddütlü adımlar atmasıydı. Bilindiği gibi Avrupa Birliği (AB) son on yılda veri gizliliği ve sosyal medya konularında zorlu yasalar çıkardı. YZ’yi düzenleme konusunda hep ABD ve Çin’in bir adım önündeydi. Avrupalı politikacıların ve özellikle de Fransa Cumhurbaşkanı Emmanuel Macron’un sözleri AB’nin YZ politikalarında bir değişikliğin habercisi olabilir. Macron, ABD’li politikacılardan sıkça duyduğumuz düzenleme karşıtı tezleri ortaya attı ve “cezalandırıcı” düzenlemelerin ülkenin teknoloji sektörünün rekabet kapasitesini azaltabileceğini savundu.
İkincisi, YZ kıyamet tellallarının zemin kaybetmesiydi. 2023’te İngiltere’de ve geçen yıl Güney Kore’de düzenlenen zirveler daha çok gelişmiş YZ sistemlerinin insan neslinin tükenmesine kadar varabilecek potansiyel risk ve zararlarına odaklanmıştı. Bu zirvede ise YZ’nin potansiyelleri üzerinde duruldu. YZ’nin tıp ve iklim bilimi gibi alanlarda ilerlemeyi hızlandırma yeteneği öne çıkarıldı.
Üçüncüsü, DeepSeek’in yarış dışı kalanlar için bir ilham kaynağı haline gelmesiydi. DeepSeek’in modelinin önde gelen Amerikan modellerinden çok daha az maliyetli biçimde inşa edildiği iddiası YZ yarışında geride kalanlara umut oldu. Avrupa ve diğer yerlerde kendilerini yarışın dışında sayan daha küçük YZ ekipleri, daha düşük bütçelerle ABD’li YZ devleriyle rekabet edebileceklerini gördüler.
Dördüncüsü, Trump yönetiminin YZ politikalarının nasıl olacağıydı. Yeni yönetim, Biden yönetiminin güçlü YZ modelleri için bir test programı hazırlayan kararnamesini yürürlükten kaldırdı. Ancak henüz net bir YZ politikası ortaya koymadı. Bazıları yıllardır YZ hakkındaki endişelerini dile getiren Elon Musk’ın Trump’ı YZ konusunda daha temkinli adımlar atmaya ikna edebileceğini düşünüyordü. Diğerleri ise risk sermayedarlarının ve YZ şirketlerinin Trump’ı YZ endüstrisini rahat bırakmaya ve yavaşlatabilecek düzenlemeleri ortadan kaldırmaya ikna edeceğine inanıyordu.
Beşincisi, politika yapıcıların güçlü YZ sistemlerinin ne kadar yakında ortaya çıkabileceğini ya da ne kadar yıkıcı olabileceğini kavrayamıyor gibi görünmeleriydi. Bir çok şirket yapay genel zekâ için tarih veriyor. Amodei (Anthropic) ve Altman (OpenAI), yapay genel zekâya önümüzdeki bir iki yıl içinde erişebileceğimizi iddia ederken Hassabis (DeepMind) daha mütevazı bir tahminle bunun beş yıl içinde olacağını söylüyor. Ancak Roose’un (2025) vurguladığı gibi eğer insandan daha akıllı YZ sistemlerine bu kadar yakınsak ciddi şekilde düşünmemiz gereken sorunlarla karşı karşıyayız: Milyonlarca beyaz yakalı işin yerini alabilecek güçlü YZ ajanları, uzak bir hayal değil de yakın bir gerçeklikse bu durum çalışanları nasıl etkileyecek? YZ sistemlerinin öz yinelemeli olarak kendini geliştirebildiği veya otonom siber saldırılar gerçekleştirebildiği bir dünyada nasıl düzenlemelere gerek var? Yapay genel zekâya iddia edildiği gibi bu kadar yakınsak kurumların bilimsel araştırma ve ilaç keşfi gibi alanlardaki hızlı gelişmelere nasıl hazırlanmaları gerekecek?
Roose (2025) ilk günkü değerlendirmelerinde, Trump yönetiminin YZ politikalarındaki belirsizliğe değinmişti. Bence aşırı iyimserdi. Zirvenin ikinci gününde konuşan ABD Başkan Yardımcısı JD Vance, bu belirsizliği büyük ölçüde giderdi. Vance, henüz Başkan Yardımcısı olmadan önce de “Avrupa Elon Musk’ı ve X’i düzenlemeye kalkarsa ABD, NATO’ya desteğini çekebilir” gibi tehditler savurmuştu (https://www.independent.co.uk/news/world/americas/us-politics/jd-vance-elon-musk-x-twitter-donald-trump-b2614525.html). Başkan yardımcısı olarak yaptığı ilk yurtdışı konuşmasında da yine hedefinde AB düzenlemeleri vardı. Trump yönetiminin en güçlü YZ sistemlerinin Amerikan tasarımı ve üretimi çiplerle ABD’de inşa edilmesini sağlayacağını söyledikten sonra lider olmalarının tek başlarına hareket etmek istedikleri ya da buna ihtiyaç duydukları anlamına gelmediğini belirtti. Ama YZ teknolojisinin yaratılmasını boğmak yerine teşvik eden uluslararası düzenleyici rejimlere ihtiyaç olduğunu vurgulayarak Avrupalı ortaklarıyla yürümenin koşullarının altını çizdi (Sanger, 2025). Ayrıca ABD ve Birleşik Krallık, Paris Deklarasyonu’nu imzalamayarak uluslararası işbirliğine katılmadılar.
Vance konuşmasında YZ güvenliği yerine YZ’nin sunduğu fırsatlara odaklanılması gerektiğini savundu. Trump yönetimi bu vizyonu hem ABD’de uygulayacak hem de başta Avrupa ülkeleri olmak üzere diğer ülkelere dikte etmeye çalışacak gibi görünüyor. Her ne kadar Vance’ın düzenleme karşıtı söylemine katılmasam da dünyanın önde gelen YZ uzmanlarından Andrew Ng’nin (2025) belirttiği gibi YZ güvenliği (safety) terimi de kafa karıştırıcı. Bilim kurgu hikayelerinden fırlamış senaryolar insanların hayali ve yakın zamanda gerçekleşmesi pek olanaklı olmayan sorunlarla zaman kaybetmesine ve karşı karşıya olduğumuz asıl risklerin göz ardı edilmesine neden oluyor. Ng (2025), YZ güvenliği teriminin temel teknoloji olan YZ’nin güvensiz olabileceğini varsaydığını ama YZ uygulamalarının nasıl güvensiz olabileceği hakkında düşünmenin daha faydalı olduğunu savunuyor. Derin sahte ile rızaya dayalı olmayan porno üretimi, YZ’nin dezenformasyon için kullanımı, potansiyel olarak güvenli olmayan tıbbi teşhisler, bağımlılık yaratan uygulamalar vb. gibi açıkça zararlı YZ uygulamaları olabiliyor. Ng’nin (2024) YZ güvenliği yerine önerdiği sorumlu YZ terimi ise güvensiz veya zararlı uygulamalar oluşturmaktan kaçınmanın ve insanları faydalı ürünleri bile zararlı şekillerde kullanmaktan caydırmanın bizim sorumluluğumuz olduğunu vurguluyor. Ng’ye (2024) göre YZ’nin yaygınlaştığı bir dünyada, konuşmayı “YZ güvenliği”nden sorumlu YZ kullanımına doğru kaydırabilirsek, YZ’nin faydalarını hızlandıracak ve gerçek sorunları ele alma konusunda daha iyi bir iş çıkaracağız.
Fakat sorun burada “biz”in kim olduğu? Muhtemelen Ng, dünyanın önde gelen YZ uzmanlarından biri olarak “biz”i YZ uzmanlarından ve YZ geliştiren şirketlerden oluşan dar bir çerçevede değerlendiriyor. Fakat YZ, gündelik hayatın içinde giderek yaygınlaşıyor. Ulaşımdan sağlık hizmetlerine, tarımdan istihdama kadar çeşitli sektörler için geliştirilen ve kullanılan YZ sistemleri var. Dolayısıyla bu sistemler her geçen gün daha fazla insanın yaşamını etkilerken geleceğimizi şirketlerin güvenli veya sorumlu YZ sistemleri geliştirebileceği hakkındaki iddialara teslim edemeyiz.
Zirve, kamu yararına YZ olarak pazarlansa da ülkelerin hesap verebilirlik de dahil olmak üzere YZ düzenlemelerini reddetmeye ve bunun yerine uygulama kodları ve standartlar lehine davranmaya eğilimli oldukları görüldü. Kamu yararı, mahremiyetin, saygınlığın, emeğin korunması ve halkın sorunlu bulduğu YZ sistemlerini durduran anlamlı bir sivil katılımın sağlanması anlamına gelir. Fakat zirvede, kamu yararı yerine şirketleri ve özel çıkarları destekleyen bir hava hakimdi. 11 Şubat akşamı da Vance’ın düzenleme karşıtı eleştirilerinin ardından, Avrupa Komisyonu YZ sorumluluk direktifini geri çekti. Muhtemelen böylece yeniliğe ve rekabetçiliğe öncelik verdiklerini göstermek istediler (Brandusescu ve Sieber, 2025) .
Ayrıca zirvede, YZ’nin kamu yararına hizmet ettiği iddiaları büyük ölçüde küçük ve orta ölçekli işletmeler için veri altyapısı desteğine indirgendi. Katılımcı uygulamalar, kolektif mevcut toplumsal zararlar daha belirgin hale gelse bile göz ardı edildi (age).
Şimdi Trump’la beraber Avrupa’da düzenleme karşıtı rüzgar esse de YZ sistemlerinin düzenlenmesi hâlâ kritik bir konu. Bu bağlamda, bir çok etik çerçevede yer alan hesap verebilirlik ilkesinin YZ’deki etik ilkelerle kamu yararını gözeten düzenlemeler arasında bir köprü olacağını düşünüyorum.
Hesap Verebilirlik Nedir?
Aslında hesap verebilirlik, YZ etiği hakkındaki bir çok ilkeyi bir araya getiren, düzenleyici politikaların önünü açan ve YZ yönetişiminin anahtarı olan bir ilke. Avrupa Komisyonu’nun 2019 yılında yayımlanan raporunda hesap verebilirliğin önemi şu sözlerle vurgulanmış (https://ec.europa.eu/digital-inglemarket/en/news/definition-artificial-intelligence-main-capabilities-and-scientific-disciplines):
YZ’lerin yardımını giderek daha fazla kullanacak veya kararları onlara devredeceksek, bu sistemlerin insanların yaşamları üzerindeki etkilerinin adil olduğundan, ödün verilmemesi gereken değerlerle uyumlu olduklarından ve buna göre hareket edebildiklerinden ve uygun hesap verebilirlik süreçlerinin bunu sağlayabileceğinden emin olmamız gerekir.
Tarihçiler hesap verebilirlik kavramının finansal muhasebe uygulamalarından çıktığını ve yirminci yüzyılın sonlarında yaygın kullanıma girdiğini belirtiyorlar. O zamandan beri de hem dar amaçlar için hem de normatif arzu edilebilirlik için her şeyi kapsayan bir kavram olarak karşımıza çıkıyor ve kapsamı genişliyor. Bu kapsam genişliği, YZ’deki hesap verebilirlik tartışmalarını da etkiliyor. Bazı akademisyenler, hesap verebilirliği bir tür ana erdem olarak ele alıyor ve hesap verebilirliği ahlaki gerekçelendirilebilirlik ile hemen hemen eş anlamlı olarak kullanıyorlar. Bazıları, algoritmaların mevcut yasal standartlara uyduğunu veya sistem performansının bazı yönlerinin izlenebilir olduğunu doğrulamak gibi hesap verebilirliği çok daha sınırlı bir çerçevede değerlendiriyorlar. Bazıları hesap verebilirliği mesleki rolleri ve örgütsel ilişkileri düzenleyen bir mekanizma olarak görüyorlar. Bazıları ise hesap verebilirliğin, kurumsal uygulamalardan bağımsız olarak var olan ahlaki sorumluluğun temel bir bileşeni olduğunu öne sürüyorlar. Bazıları hesap verebilirliğin YZ sistemlerini tasarlayan ve uygulayanların bir niteliği olduğunu varsayarken, diğerleri hesap verebilirliği sistemlerin kendisinin bir niteliği olarak ele alıyorlar. Ancak bu kavramsal anlaşmazlıklar nadiren açıkça ifade ediliyor (Lechterman, 2022).
Fakat YZ’de hesap verebilirlik çoğunlukla çıkabilecek sorunlar bağlamında ve farklı öznelerin sorumluluklarını tanımlayabilmek amacıyla gündeme geliyor. YZ sistemlerinin tasarımı, geliştirilmesi, dağıtılması ve kullanımından sorumlu olan kişilerin veya kurumların bu süreçler sırasında yaptıkları eylemlerden sorumlu tutulabilmesini ifade ediyor. Hesap verebilirliği belirli bir cevap verebilirlik ilişkisi olarak tanımlayabiliriz. Novelli vd. (2023), hesap verebilirlik ilişkisinin gerçekleşebilmesi için birbiriyle iç içe geçen üç temel koşul üzerinde duruyor: otoritenin tanınması, sorgulama ve gücün sınırlandırılması.
Otoritenin Tanınması: Görevlerin devredilmesiyle ilgili ve karşılıklı bir ilişkidir: A (örneğin vatandaş) X’e (örneğin kamu görevlisi) kendi çıkarlarına hizmet etmesi için yetki verdiğinde X de A’nın bu çıkarlara gerektiği gibi hizmet edilip edilmediği konusunda kendisini sorumlu tutacağını kabul eder. Bu ilişki gerçekleşmeden, hesap verebilirlik sadece “lütuf ve iyilikle raporlama veya bilgilendirme” halini alır.
Sorgulama: A’nın X’in hareketlerini incelediği gerçeğini ifade eder. Böylece hesap verebilirlik ile ahlaki sorumluluk arasındaki geleneksel ayrım ortadan kalkar. Çünkü hesap verebilirlik dışsal bir bakış açısından incelemeyi varsayar. Ahlaki sorumluluk ise içsel bir bakış açısına atıfta bulunur. Yalnızca kendine karşı sorumlu olmak, hiç sorumlu olmamak anlamına gelir.
Gücün Sınırlandırılması: A’nın X’in performansını izlemesine ve sonuçlarını değerlendirmesine olanak tanıyarak devredilen yetkinin keyfi kullanımını kısıtlar. Demokratik toplumlarda, devredilen yetkilerin kısıtlanabilmesi, bu yetkilerin meşruiyeti için bir ön koşuldur.
YZ’de hesap verebilirliğin dört temel hedefi vardır.
1. Uyumluluk: YZ’nin etik ve yasal standartlara uyumu sağlanmalıdır. Bu hedef, bir YZ’nin tüm yaşam döngüsü boyunca karşılanması gereken tasarım, geliştirme ve dağıtım standartlarını tanımlar. Ancak özenli biçimde hazırlanmazsa oldukça genel geçer bir anlam taşır.
2. Raporlama: Hesap verebilirliğin diyalog boyutunu temsil eder. YZ’lerin davranışlarının açıklanmasını ve gerekçelendirilmesini sağlayan uygulamalardır.
3. Gözetim: YZ’lerin yaşam döngüsü performansını değerlendirmek için ilgili gerçekleri veya bilgileri bulmayı ve kanıt oluşturmayı amaçlar. Organizasyonun içinden veya dışından farklı organlar tarafından veya insan-makine arayüzleri aracılığıyla gerçekleştirilebilir.
4. Yaptırım: YZ’lerin performansının izlenmesini ve değerlendirilmesini resmi veya gayri resmi sonuçlara bağlar. Bu aynı zamanda istenmeyen davranışları caydırma amacını da taşır.
Bu bağlamda hesap verebilirlik, ön alıcı veya tepkisel olabilir. Ön alıcı hesap verebilirlik, amaçlanan sonuçların üretilmesine ve amaçlanmayan sonuçların önlenmesine veya azaltılmasına odaklanır. Suistimal ve hatalara neden olan kurumsal hususları bunlar meydana gelmeden önce tespit etmeyi ve düzeltmeyi amaçlar. Ön alıcı hesap verebilirlikte, hedeflerin, rollerin, sorumlulukların ve komuta hatlarının doğru ve açık seçik bir şekilde belirlenmesi gerekir. Sistemik çarpıklıkları ön alıcı bir duruşla düzeltmek için, standart belirlemeye (uyum) ve YZ’lerin uygunluğu ve etkisine ilişkin ön kontrollere (gözetim) daha fazla önem verilir.
Tepkisel hesap verebilirlik, olay gerçekleştikten sonra gerekli adımları tetikler. İstenmeyen bir durum olduğunda, başarısızlıkların etkilerini telafi etmeyi amaçlar. Bu görüşe göre, hesap verebilirlik bir erdemden çok bir mekanizmadır. Olaydan sonra sunulan açıklama ve gerekçelere (raporlama) ve hesap verebilirlik değerlendirmesinin sonuçlarına (yaptırım) önem verilir. Gözetim, burada bir ön kontrolden çok geriye dönük bir inceleme (örneğin, yargı denetimi) olarak karşımıza çıkar (age).
Hesap verebilirlik, farklı biçimlerde karşımıza çıkabilir. Örneğin adli anlamda hesap verebilirlik geriye dönüktür ve sorumlulukla yakından ilişkilidir. Sorumluluk teorileri, bireylerin eylemlerine ve eylemlerinin sonuçlarına nasıl bağlanabilecekleri üzerinde durur. Genel konuşmada, sorumluluk ve hesap verebilirlik bazen birbirinin yerine kullanılsa da hesap verebilirlik daha çok birini belirli bir eylemden sorumlu tutmanın uygun veya adil olduğu koşullara atıfta bulunur. Bu anlayışa göre hesap verebilir olmak, bir gerekçelendirme talebine açık olmak, neyin ve neden olduğuna dair cevaplar veya bir hesap vermenin beklenmesi anlamına gelir. Ayrıca gerekçelendirme yetersiz kaldığında yaptırıma maruz kalma olasılığını da içerebilir (Lechterman, 2022).
Bu bakış açısına göre sorumluluk, hesap verebilirlik için bir ön koşuldur. Normal şartlarda, bir kişi bir koşuldan sorumlu değilse o kişinin hesap verebilirliği de söz konusu olamaz. Ama YZ’de bu tartışmanın biraz daha farklı ele alındığını görüyoruz. Yapay ajanlar (agents) da hesap verebilirlik ilişkisi içinde yer alabilir; gerekçelendirme ve yaptırım talepleriyle karşı karşıya kalabilir; sorumlu ya da suçlanabilir olmaksızın hesap verebilir olabilirler. Dolayısıyla bir YZ sistemini bir suçtan sorumlu tutamasak da hesap verebilir olarak değerlendirebiliriz (age).
Floridi ve Sanders (2004), YZ’nin (en azından mevcut ve yakın vadeli biçimlerinde) yanlış yapmaktan sorumlu olamayacağını savunur. Çünkü YZ (hayvanlar gibi) kasıtlı eylemlerde bulunamayacağı için eylemlerinden sorumlu tutulamaz. Ancak YZ, onu değiştirerek veya silerek yaptırıma tabi tutulabildiği için yanlış eylemleri için hesap verebilirliğe sahiptir. Dolayısıyla hesap verebilirlik ilişkisini temellendirmek için sorumluluk yeterli olmakla beraber gerekli değildir. Örneğin bir durum, kişinin astı, evcil hayvanı veya teknolojik ürünü tarafından yaratılmışsa kişi, ilgili durumdan sorumlu olmasa da hesap vermek zorunda olabilir.
Bir teknoloji, kötü bir olaya karıştığında (işler beklenildiği gibi gitmediğinde), bunun için kimden veya neyden hesap sorulabileceğini belirlemeye ve buna göre davranmaya çalışırız. Hesap verebilir bir birey, davranışlarından sorumlu olmaya, kararlarının incelenmesini memnuniyetle karşılamaya ve zararların sorumluluğunu almaya güçlü bir şekilde eğilimli olan kişidir. Hesap verebilir bir ajan veya sistem ise ilgili paydaşlardan güvenilir bir şekilde girdi ve denetimi memnuniyetle karşılayan, ilgili standartlara uyumu sağlamak için doğru özelliklere sahip olan ve başarısızlıklarını tamamen kabul eden ve düzelten öznedir. Dolayısıyla hesap verebilirliğin daha fazla veya daha az miktarda gösterilebilen bir şey olduğunu söyleyebiliriz (Lechterman, 2022).
Hesap Verebilirlik Açığı
Hesap verebilirliğin sağlanabilmesi için öncelikle katılımcılar, bir hesap verebilirlik ilişkisinin şartları üzerinde temel bir anlaşmaya varabilmelidir. Kim, kime, ne için ve hangi standartlara göre hesap vermelidir sorularına yanıt verilmelidir. Taraflar, bir hesap verebilirlik ilişkisi konusunda fikir ayrılığına düştüklerinde bir açıklık (gap) ortaya çıkar. Taraflar ilişkinin şartları konusunda anlaşsalar da bir sebepten ötürü bunları sistematik olarak uygulamaktan kaçınmaları yine bir açıklığa neden olabilir. YZ’nin ve sosyal bağlamının çeşitli özellikleri de hesap verebilirlik açıklığı yaratabilir. Ancak en kritik hesap verebilirlik açıkları, insanlar arasında ve insanlar ile makineler arasındaki failliğin dağılımı, algoritmik süreçlerin belirsizliği ve anlaşılmazlığı, ahlaki ve düzenleyici normlar hakkındaki anlaşmazlıklar nedeniyle çıkmaktadır.
Dağıtılmış Faillik
YZ’nin hesap verebilirliğini sınırlayan sorunların başında bu teknolojinin çok sayıda insan ve insan olmayan tarafı içermesi gelir. YZ sistemleri, gücün insanlardan makinelere devredilmesini içerebilir. Ayrıca tipik olarak hem insan hem de insan olmayan sayısız farklı aktörün katkılarıyla hayata geçirilmiş olabilir.
İnsanların bazı görevleri otonom makinelere devretmesi, insanların sonuçlar üzerindeki kontrollerinden bir dereceye kadar vazgeçmesini içerir. YZ’yi yeni ve değerli kılan şey ise YZ’nin insan yönlendirmesi olmadan ve insanlar tarafından öngörülemeyen şekillerde düşünme ve hareket etme yolları sağlamasıdır. Otonom bir araç bizi hiç beklemediğimiz bir rotadan varış noktasına götürebilir; otonom bir silah sistemi, insanların hiç düşünmediği bir tehdidi belirleyebilir ve yok edebilir; YZ, bir çok doktorun fark edemediği hastalıkları teşhis edebilir, gök cisimlerini belirleyebilir veya hava durumunu insanların geleneksel yöntemlere güvenerek yaptıklarından çok daha doğru ve hızlı bir şekilde tahmin edebilir. Bu özellikler, YZ’nin kaynak dağıtımını optimize etmek, bilimsel gizemleri çözmek ve zahmetli görevleri otomatikleştirmek için insan amaçları ve çıkarlarıyla tutarlı şekillerde çalıştığında memnuniyetle karşılanır. Ancak YZ’nin insan anlayışından ve kontrolünden bir dereceye kadar bağımsız olabileceğini unutmamak gerekir. YZ, insan amaçları ve çıkarlarıyla tutarsız şekillerde hareket etme riski de taşır (age).
YZ sistemleri öncelikle tasarımcılarına ve onu işletenlere karşı hesap verebilir olmalıdır. Ancak YZ sistemlerinin verdiği önyargılı kararlar nedeniyle mağdur olan insanları dikkate aldığımızda hesap verebilirliğin sadece tasarımcılar ve işletmecilerle sınırlı olamayacağını görürüz. Olumsuz algoritmik kararlara itiraz ve tazminat yollarının olmaması bariz bir adaletsizlik kaynağıdır. YZ’den olumsuz muamele görenlerin hesap sorma ve tazminat talep etme hakkı olmalıdır.
Ayrıca YZ’de hesap verebilirlik, “çok sayıda el” sorunu olarak tanımlanan ve YZ kararlarının insan ve insan olmayan etkenlerin çok sayıda, çok farklı katkısının bir ürünü olduğu gerçeğiyle de karşı karşıyadır. Çünkü YZ sistemleri, genellikle üçüncü taraf veri kümelerinden ve hem özel mülkiyetli hem de açık kaynaklı çeşitli üçüncü taraf yazılım öğelerinden yararlanır. Bu öğelerin kökeni ve nitelikleri tam bilinmiyor olabilir. Çok sayıda kişi verilerin toplanmasına ve sınıflandırılmasına katkıda bulunur. Çok sayıda başka kişi de zaman içinde yeniden birleştirilebilen ve paketlenebilen modellerin tasarımına, test edilmesine ve dağıtımına katkıda bulunur. Bu süreçte çeşitli noktalarda otonom operasyonların yer alması atıf yapılabilirlik çizgilerini daha da belirsizleştirir. Bazı durumlarda katılımcıların katkıları hakkında daha iyi kayıt tutması çok el sorununu azaltabilir. Ancak bu süreçteki operasyon sayısı o kadar kapsamlı veya karmaşık olabilir ki nihai sonuçlarda bireysel katkıları ayırmak pratik olarak imkansızlaşabilir. Çok sayıda el sorunu YZ’ye özgü olmamakla beraber YZ sistemlerinin kendilerine özgü karmaşıklıkları ve bu ellerin bazılarının insan olmaması nedeniyle YZ’de bu sorun daha belirgindir.
Şeffaflık Eksikliği
YZ süreçleri insan gözlemciler için açık seçik olmayabilir. Çeşitli nedenlerden dolayı işler her zaman beklendiği gibi gitmez: YZ sistemleri hatalı veya taraflı verilere dayanıyor olabilir; hatalı kodlar içerebilir; tasarımcılar, tartışmalı yargılarını kodlamış olabilirler. Bu nedenle YZ sistemleriyle etkileşim kuranlar, bu sistemlerin amaçlarını, nasıl çalıştıklarını veya bireysel kararlar alırken hangi faktörleri göz önünde bulundurduklarını tam olarak anlamayabilirler. YZ sistemlerinin büyük ölçekleri ve karmaşık yapılarının yanında, sistemlerin içerdiği birçok özel mülkiyetli bileşen de bu karmaşıklığa katkıda bulunur.
Örneğin, 2016 yılında bir sivil toplum örgütü, belirli bir algoritma tarafından üretilen 7000 sanığın risk puanlarının analizine dayanarak, puanların sanıkların yeniden suç işleme oranını zayıf bir şekilde yansıttığını ve ırksal bir önyargıya sahip olduğunu tespit etti. Bulguların doğru olup olmaması bir yana kısmen özel mülkiyetli olan algoritma nedeniyle hakimler olasılıkların nasıl hesaplandığını tam olarak anlayamadan bu sistemleri kullandılar (Noorman, 2023).
Bunun yanında, bir diğer sorun, algoritmik kararların, bu kararlardan etkilenenler tarafından yorumlanabilirliğinde ortaya çıkar. Kaynak kodu ve altta yatan veriler incelemeye açık olsa bile kararların gerekçelerinin yorumlanması sıradan kişiler ve hatta uzmanlar için bile zor olabilir. Bir YZ sisteminin kararından olumsuz etkilenen bir kişi bu kararın uygun şekilde ele alınıp alınmadığını değerlendirmek için gerekli temelden yoksun olabilir.
Kısacası, kararların anlaşılmazlığı hesap verebilirlik ilişkisinde hem hesabın verilmesini hem de hesap sorulmasını engeller.
Ahlaki ve Düzenleyici Anlaşmazlıklar
Aktörlerin neler için hesap vermesi gerektiği konusunda halihazırda yaygın bir mutabakatın bulunması hesap verebilirliğin sağlanmasını kolaylaştırabilir. Bir kimyasal tesis felaketinin kurbanları, bu felakete yol açan kişi ve kuruluşları bu felaketten sorumlu tutabilir. Ancak, YZ gibi yeni ortaya çıkan teknolojiler söz konusu olduğunda, zarar ve haksızlık standartları genellikle olgunlaşmamış, belirsiz veya tartışmalıdır. İnsanlar YZ sistemlerinin uyması gereken genel etik ilkeler konusunda bile derin fikir ayrılıklarına düşmektedir. Örneğin, YZ’nin temel koşullardaki (sınıfsal, ırksal, cinsel vb.) eşitsizlikleri yeniden üretmesi ancak bunları yoğunlaştırmaması kabul edilebilir mi? Yoksa YZ’nin eşitsizlikleri bir şekilde ortadan kaldırması mı gerekir? YZ, kullanıcıları belirli refah ideallerine uymaya mı teşvik etmelidir, yoksa öznelerinin özgürlüğüne saygı göstermeli midir?
YZ etiği ilkeleri ve şirketlerin kendi bünyelerinde kurdukları etik kurullar, sermayenin hukuksal düzenlemelerden kaçmak için yararlandığı bir aklama aracına dönüşmüş olsa da YZ etiğinin oldukça politik olduğu unutulmamalıdır. YZ etiği hakkındaki anlaşmazlıklar, özgürlük ve eşitlik gibi belirli değerlerin doğası hakkındaki daha genel anlaşmazlıklara dayanır. Bunun yanında normatif etikte, genel olarak doğruluğu veya yanlışlığı nasıl değerlendireceğimize ilişkin anlaşmazlıklar da vardır. YZ’nin hesap verebilirliğini tartışırken önceliğimiz ne olmalı? Niyetler, eylemler veya sonuçlara mı odaklanmalıyız? Bir kredi derecelendirme algoritması, krediye erişimi genişletme, öznel yargıları azaltma ve kredi temerrüt oranlarını düşürme gibi iyi niyetlerle tasarlanabilir. Konuşlandırıldığında bu sonuçları elde edebileceği gibi bazı insanlara karşı haksız da davranabilir. Farklı teoriler ve farklı insanlar, doğruluğu ve yanlışlığı yargılamada niyetlerin, eylemlerin ve sonuçların önemine farklı ağırlıklar verebilir.
Hesap verilecek standartlar hakkında yaygın bir anlaşmazlık olduğunda, daha fazla hesap verebilirlik için genel çağrılar net bir hedeften yoksun kalacağı için bu çağrılar güdükleşir. Ancak hesap verebilirlik çağrılarının başarılı hesap verebilirlik uygulamaları için ön koşul olan normatif standartları açıklığa kavuşturmanın bir ön koşulu olabileceğini de dikkate almak gerekiyor.
Etik standartlardaki eksikliğin yanında YZ için hangi düzenleyici standartların geçerli olduğu konusunda da büyük bir anlaşmazlık vardır. Ulusal hükümetler ve uluslararası kuruluşlar birçok düzenleyici çerçeve önermelerine karşın şimdiye kadar çok az yasa çıkardılar ve AB’nin bu doğrultudaki çabaları ABD’nin ve Büyük Teknoloji şirketlerinin baskısı altındadır. Meslek örgütleri, standart belirleme kuruluşları, aktivist örgütler vb YZ’yi düzenlemek için farklı ilkeler, yönergeler ve araçlar listesi sunuyorlar. Bu çok farklı çabalar en azından YZ’nin ortaya çıkardığı etik zorlukların önemi konusunda bir mutabakat olduğunu gösteriyor. Ancak aşırı çok seslilik ve rekabet eden standartların bolluğu nedeniyle aktörler kendilerine en az yük getiren standarda yönelmekte, bu da haliyle hesap verebilirliği azaltmaktadır. En kötüsü ise Paris’teki YZ zirvesinde gördüğümüz gibi, YZ’yi düzenleme girişimleri sürekli baltalanmaya çalışılmaktadır.
Hesap Verebilirlik Açığına Karşı Öneriler
Erteletim (moratoria)
YZ hesap verebilirlik açığını kapatmanın bir yolu, bunun olasılığını ortadan kaldırmaktır. Silikon Vadisi’nin söyleminin aksine, herhangi bir ileri teknoloji kaçınılmaz veya ne pahasına olursa olsun hemen kullanılması ve yaygınlaştırılması gereken bir zorunluluk değildir. HAYIR’ın da her zaman masadaki bir seçeneklerden biri olduğunu unutmamalı. Hükümetlerin bazı alanlarda belirli YZ sistemlerinin kullanımını gerekli düzenlemeler oluşturulana kadar ertelemeye veya ilkesel olarak reddetmeye hakları var. Bu karşın aşağıdaki üç durumu da dikkate almak gerekir:
1. Her alanın kendine özgü hassasiyetleri olabilir. Örneğin YZ’nin askeri uygulamalarda veya sağlık hizmetlerinde belirli kullanımları diğerlerinden çok daha az riskli veya hesap verebilirliğe daha az duyarlı olabilir. Hedef seçimini veya karar vermeyi otomatikleştirmek ile YZ’yi belirli konularda insan karar vericilere yardımcı olmak için kullanmak başka bir şeydir. Örneğin, doktorların teşhis koymak için YZ’den yardım alması ve son kararın doktorda olması düşük riskli bir durumdur. Ancak tıbbi teşhisleri ve tedavi kararlarını otomatikleştirmek çok ciddi riskler yaratabilir.
2. Ülkeler arasındaki YZ yarışı ülkeleri bir çeşit tutsak ikilemine düşürür (bkz. https://evrimagaci.org/tutsak-ikileminden-nasil-kurtulunur-mahkum-ikilemindeki-tercihleri-etkileyen-psikolojik-etmenler-nelerdir-12246). A ve B diye iki ülkemiz olduğunu ve YZ’yi askeri alanda kullanmak istediklerini varsayalım. Hem A hem de B’nin bir silahlanma yarışı felaketle sonuçlanacaktır. Ama A, YZ’nin askeri alanda kullanımını yasaklarsa, YZ’yi askeri kullanım için geliştirmeye devam eden B stratejik bir avantaj elde eder. Her iki ülke de YZ’yi askeri kullanım için yasaklamayı kabul ederse kuşkusuz bu iyi bir şey olur. Ama bir tarafın gizlice geliştirmeye devam edebileceği korkusu, diğerinin de gizlice geliştirmeye devam etmesi için bir teşvik sağlar. Güçlü izleme mekanizmaları olsa bile en yüksek teklifi veren için öldürücü robotlar geliştirecek devlet dışı güçlerden oluşan bir karaborsa ortaya çıkabilir.
3. Yasaklar, YZ’nin potansiyel yararları ile karşı karşıya gelebilir. Örneğin, her yıl binlerce insan aşırı hız, dikkat dağınıklığı ve alkollü araç kullanımı nedeniyle otomobil kazalarında ölmektedir. Otonom araçlar, başka sorunlara yol açsalar da bu gibi kazaları azaltabilirler. Bu durumda, düzenleme olmadan otonom araçların yaygın kullanımını engellemesi itirazlara neden olabilir. (Ancak bir ülkenin bireysel ulaşıma ya da toplu ulaşıma yatırım yapmasının da politik bir tercih olduğunu unutmamak gerekiyor!)
Bunun yanında Lechterman (2022) erteletimlerin bir sistemin iyileşmesini geciktirmesi gibi ironik bir durum da yarattığını belirtiyor. YZ öncesindeki teknolojilerde olduğu gibi bir teknolojinin sorunları, teknoloji kullanıldıkça daha iyi giderilebilir. Fakat deneyimden öğrenme YZ’de daha da önemlidir. Örneğin sistemin aldığı hasta verisi arttıkça teşhisleri daha isabetli olabilir. Ancak bu durumda da ilk kullanıcılar, daha az güvenilir ürünlerin sonuçlarına katlanmak zorunda kalırlar.
Düzenleyici Yaklaşımlar
YZ uygulamaları hakkındaki endişeler çoğu zaman insanların karar alma sürecine doğrudan dahil olmadığı veya tamamen yok olduğu tam otomatik kullanımlardan kaynaklanır. Farklı YZ tasarımları olabilir:
1. İnsanlar, YZ döngüsünde içinde yer alırlar. YZ’den tavsiye alabilir. Ama tavsiyelere göre hareket edip etmemek kendi sorumluluklarındadır.
2. İnsanlar, YZ döngüsünü takip eder ve gerekli durumlarda müdahale ederler.
3. İnsanlar, YZ döngüsünün dışındadırlar ve karar süreçlerinde ve uygulamaları izlemede aktif olarak yer almazlar.
En endişe verici üçüncü durumdur. Ama ikinci durumda da insanların sık sık risk almamak veya YZ’ye aşırı güvendikleri için müdahale konusunda isteksiz davranabildikleri görülmektedir. Bazı durumlarda, insanları süreçlere daha yakından dahil ederek ve YZ’yi insan zekasını artırmak için kullanarak hesap verebilirlik açığı küçültülebilir.
Ayrıca sık sık gündeme gelen kıyamet senaryoları YZ’yi düzenleme girişimlerine yarar değil zarar vermektedir. YZ genel amaçlı bir teknolojidir ve risk çeşitliliği oldukça fazladır. Örneğin, müzik bestelemek veya görüntü üretmek için kullanılan bir YZ aracı telif hakları konusunda sorun yaratabilir. Ama YZ’nin sağlık, adalet ve güvenlikte kullanımı gibi yaşamsal tehditler içermez. Hesap verebilirlik düzenlemeleri, farklı alanların kendilerine özgü gereksinim ve önceliklerini göz önünde bulundurarak yapılmalıdır.
Lechterman’ın (2022) belirttiği gibi müzik besteleme ve sağlık/adalet uygulamaları iki zıt kutup gibi görünse de arada kalan YZ uygulamaları da var. Örneğin arama sonuçlarının sıralanması veya sosyal medyadaki içerik akışı, kamu söylemi ve siyasi istikrar üzerinde etkilidir.
Bu nedenle, hesap verebilirliği artırmayı hedefleyen düzenleyici yaklaşımların YZ’nin genel bir teknoloji olduğunu ve her bir YZ’nin risk düzeyinin (dolayısıyla hesap verebilirlik düzeyinin) farklı olabileceğini göz önünde bulundurması gerekir.
Şeffaflık ve Açıklanabilirlik
İki temel etik ilke, şeffaflık ve açıklanabilirlik, hesap verebilirlik açığını kapatmak için sıklıkla gündeme gelen ilkeler. YZ’nin şeffaflığı ve açıklanabilirliğini iyileştirmenin, hesap verebilirliği iyileştirmenin önemli bir koşulu olduğu iddia edilir. Çünkü bir YZ sisteminin neye karar verdiğini ve söz konusu kararın nedenini anlayamıyorsak YZ’nin kendisi için geçerli nedenlere uyup uymadığını da belirleyemeyiz. Teknoloji şirketleri şeffaflık ve açıklanabilirliğin teknolojik müdahalelerle çözülebilir sorunlar olduğuna inandıklarından şirketlerin yayımladığı veya katkıda bulunduğu etik ilkelerde bu iki konuya sıklıkla yer verilir.
Ancak her iki öğeye tek başına odaklanmak bizi çıkmaza sürükleyebilir. Hatta Kroll’a (2020) göre şeffaflık, hesap verebilirlik için genelde ne her zaman istenen ne de yeterli olan bir şeydir. Veri sahibinin gizliliğinin, ticari sırların veya ulusal güvenliğin korunmasını gerektiren kullanımlarda istenmez. Yalnızca bir algoritmanın veri setini veya kodunu görüntüleyebilmek otomatik olarak onun anlamlandırılmasını sağlamaz.
Şeffaflığın açıklanabilirliğe veya yorumlanabilirliğe yol açtığına dair örtük inanç nedeniyle veriler veya kod görülebildiğinde, algoritmanın kararlarını anlama olasılığımızın arttığı düşünülür. Fakat bu durum derin öğrenme sistemlerinde sadece sınırlı bir yardım sağlar. Çünkü mevcut YZ sistemleri insanlar tarafından programlanmaz, bunun yerine eğitim verilerine yanıt olarak sayısız ayarı otomatik olarak oluşturan ve ayarlayan derin öğrenme süreçleri söz konusudur. Bu ayarların ne anlama geldiği ve neden seçildikleri neredeyse bilinmez olabilir. Kesin açıklamanın bir kararın gerekçelendirilmesi için kritik olduğu durumlarda (örneğin cezai hükümlerde) YZ’nin kullanımını düzenlemek, YZ’den açıklanabilirlik talep etmekten daha akıllıca olabilir. Örneğin böyle durumlarda “kara kutu” YZ modellerinin kullanımına hiç izin verilmemesi daha adil olabilir.
Şeffaflık ve açıklanabilirliğin sağlanamadığı durumlarda YZ sistemlerinin bütünlüğünü ve güvenilirliğini izlemek için sağlam dokümantasyon ve kayıt tutma, geliştirme sürecinde sorumlulukların net bir şekilde paylaştırılması, bir dizi standart çalışma prosedürünün duyurulması ve takip edilmesi, bir algoritmanın niteliklerini izlemek ve iletmek için gösterge tablolarının kullanılması gibi yöntemlere başvurulabilir.
Özen Yükümlülüğü
Özen yükümlülüğü (İngilizce: Duty of care/Fransızca: Devoir de vigilance), bir bireye yüklenen, başkalarına öngörülebilir şekilde zarar verebilecek ve ihmal iddiasına yol açabilecek dikkatsiz davranışlardan kaçınmak için makul bir özen standardına uyulmasını gerektiren dava açma hakkı veren neden (İng:cause of action) yasal bir yükümlülüktür. Toplumsal sözleşmenin, bireylerin/varlıkların toplumdaki diğer kişilere karşı sahip olduğu yerleşik ve zımni sorumlulukların resmileştirilmesi olarak da düşünülebilir (https://tr.wikipedia.org/wiki/Özen_yükümlülüğü) .
YZ sistemlerinin etik risklerini azaltmak için YZ’yi tasarlayan ve uygulayanlara özen yükümlülüğü getirilebilir. YZ’nin birçok riski, tasarımcıların ve operatörlerin etik konulara daha duyarlı olmasıyla gerçekten de azaltılabilir. Yapısal adaletsizlik ve eğitim verilerinde gizlenebilecek önyargı türleri hakkında daha fazla farkındalık bazı hataları önlemek için yeterli olabilir.
Ancak, özen yükümlülüğü kolaylıkla suistimal edilebilir. Pek çok etik mesele daha ileri düzeyde uzmanlık olmadan çözülemeyecek kadar karmaşıktır. Profesyonelleri ürünlerini etik açıdan koruma sorumluluğunu üstlenmeye davet etmek iyi niyetli hatalara, güdülenmiş akıl yürütmelere veya dar görüşlü değer yargılarının yazılıma kodlanmasına yol açabilir. Pek çok etik mesele, teknoloji profesyonellerinin kendi başlarına çözme yetkisini aşmaktadır. Bunların birçoğu etkilenen topluluklardan girdi ve adil bir kamusal müzakere süreci gerektirir. Özen yükümlülüğünün aşırı hevesli bir şekilde uygulanması paternalizm veya teknokrasi eleştirilerine yol açabilir (age).
***
Hesap verebilirlik, YZ etiği ve yönetişiminin anahtarını elinde bulundurur. Lechterman’ın (2022) vurguladığı gibi standartlar hakkında yaygın bir anlaşmazlık olduğunda, daha fazla hesap verebilirlik için genel çağrılar net bir hedeften yoksun kalabilir. Ama bu çağrılar aynı zamanda başarılı hesap verebilirlik uygulamaları için ön koşul olan normatif standartları açıklığa kavuşturmaya yardımcı da olabilir. Özellikle standartlar hakkında anlaşmazlık olduğunda, hesap verebilirlik mekanizmaları sorunların keşfedilmesinde ve daha kalıcı çözümlerin aranmasında önemli bir rol oynayabilir.
Ama daha da önemlisi hesap verebilirlik, YZ etiği ve YZ sistemlerinin düzenlenmesi arasında bir köprü görevi görür; iki alanı birbirine bağlar.
Kaynaklar
Brandusescu, A., Sieber, R. (2025). The Paris AI Summit: Deregulation, Fear, and Surveillance, https://montrealethics.ai/the-paris-ai-summit-deregulation-fear-and-surveillance/, son erişim 18.02.2025
Floridi, Luciano, and J.W. Sanders. “On the Morality of Artificial Agents.” Minds and Machines 14, no. 3 (2004): 349–79.
Kroll, J. A. (2020). Accountability in computer systems (pp. 180-196). New York: Oxford University Press.
Lechterman, T. M. (2022). The concept of accountability in AI ethics and governance. In The Oxford Handbook of AI Governance. Oxford University Press.
Ng, A. (2025). The Difference Between “AI Safety” and “Responsible AI”, https://www.deeplearning.ai/the-batch/the-difference-between-ai-safety-and-responsible-ai/, son erişim 18.02.2025
Noorman, M. (2023). Computing and moral responsibility (substantive revision). In Stanford encyclopedia of philosophy. Stanford University.
Novelli, C., Taddeo, M., & Floridi, L. (2024). Accountability in artificial intelligence: what it is and how it works. Ai & Society, 39(4), 1871-1882.
Roose, K. (2025). 5 Notes From the Big A.I. Summit in Paris, https://www.nytimes.com/2025/02/10/technology/ai-summit-paris-technology.html, son erişim 18.02.2025
Sanger, D. (2025). Vance, in First Foreign Speech, Tells Europe That U.S. Will Dominate A.I., https://www.nytimes.com/2025/02/11/world/europe/vance-speech-paris-ai-summit.html, son erişim 18.02.2025
İlk Yorumu Siz Yapın