Birçok insan YZ’den (yapay zekâ) korkuyor. Bir gün insansı robotların tüm insanlığı yok edebileceğini düşünüyorlar. Olabilir; ama şu anda bu korkunun kendisi Terminatör gibi insansı robotlardan çok daha tehlikeli. Çünkü gerçekte var olan sorunları fark edebilmemizi ve bunlara karşı çözümler geliştirebilmemizi engelliyor. YZ’yi teknik olarak farklı başlıklar altında ele alabiliriz: dar yapay zekâ, yapay genel zekâ, yapay süper zekâ; sembolik yapay zekâ, yapay öğrenme, derin öğrenme vb. Buna karşın, Dyer-Witheford, Kjøsen ve Steinhoff’un (2022) geçmişteki sosyalizm tartışmalarına atıfla, YZ hakkındaki dehşetli korkuları ve beklentileri bir yana bırakarak, bu teknolojilerin “deneysel ve eşitsiz benimsendiği bir aşamayı” belirtmek amacıyla kullandığı “reel (gerçekte var olan) YZ kapitalizmi ” adlandırmasının daha doğru bir yaklaşım olduğunu düşünüyorum. Dyer-Witheford vd’nin (2022) belirttiği gibi YZ kapitalizmi duraklayabilir, sönebilir veya reel sosyalizm gibi patlayabilir. YZ ile donatılmış bir kapitalizmin gideceği yönler oldukça belirsiz. Şimdiki kapitalizm, artı değer üretiminin devam ettiği ama bir çok yönden eskisinden farklı bir sisteme evrilebilir. Ya da kendimizi tamamen farklı bir toplumsal oluşum içinde bulabiliriz. Gidişatın insanlık için iyi mi yoksa kötü mü olacağını şimdilik bilemeyiz. Ama YZ’nin bu süreçte oynayacağı rol, gerçekte (!) var olan sorunlara karşı vereceğimiz mücadelelere bağlı.
Son yıllarda, algoritmaları ve yaptıkları hataları daha çok konuşuyoruz. YZ sistemlerinin yanlılığı hakkında yayımlanan kitap ve makalelerin yanısıra MIT Media Lab araştırmacısı Dr Joy Buolamwini’nin Coded Bias adlı belgeseli, YZ’nin potansiyel zararları hakkındaki farkındalığı artırdı. Sivil toplum kuruluşları, Toronto Bildirgesi (https://www.torontodeclaration.org/) gibi yapay öğrenmede eşitlik hakkının korunması üzerine belgeler yayımladılar. ABD’de vergi dairelerinde yüz tanıma sistemi kullanımı kamuoyunun tepkisiyle geri çekildi. Şirketler, etik kurulları oluşturmaya ve ilkelerini belirten belgeler yayımlamaya başladılar. AB şu anda AB Temel Haklar Bildirgesinde belirtilen temel hakları koruyacak, riske dayalı, düzenleyici bir çerçeve üzerinde çalışıyor.
YZ sistemlerini geliştirenlerin, politika yapıcıların ve bu sistemlerden etkilenen kesimlerin, YZ sistemlerinin işleyişleri, potansiyel zararları ve bu zararların nasıl önüne geçilebileceği hakkındaki farkındalığının artırılması gerekiyor. Bu nedenle, sivil toplum, hükümet ve endüstri genelinde çok çeşitli bireyleri ve kuruluşları bir araya getiren kâr amacı gütmeyen bir kuruluş olan All Tech Is Human tarafından hazırlanan Yapay Zekâ ve İnsan Hakları başlıklı raporun önemli olduğunu düşünüyorum (All Tech Is Human, 2022).
Yapay Zekâ ve İnsan Hakları, yedi temel alan üzerinde duruyor: Otomatik karar verme sistemleri ve yurttaşlık hakları; veri gizliliği; sentetik medya ve bilgi bütünlüğü; içerik denetimi; sağlık hizmeti; gözetim teknolojisi, öngörü teknolojisi ve ceza adaleti; siber güvenlik ve otonom silahlar.
Raporda, söz konusu yedi alanla ilgili temel sorunlar ve çözüm önerileri belirtilmiş. Ayrıca raporda, YZ ve insan hakları üzerine çalışmaları olan kişilerle yapılan röportajlar da var.
Otomatik Karar Sistemleri ve Yurttaşlık Hakları
Otomatik karar sistemleri (OKS), bir insan karar vericiye yardımcı olmak veya insan gözetimi olmaksızın özerk olarak kararlar almak için kullanılır. OKS’lerin geçmiş verilerden elde ettikleri örüntüler, kestirime dayalı kararları kolaylaştırır. Bu gibi sistemler devreye alınırken karar süreçlerinin doğruluk ve verimini artıracakları varsayılır.
Şüpheli kredi kartı işlemlerinin tespiti veya kasiyersiz alışverişlerde (https://losspreventionmedia.com/how-ai-helps-retailers-manage-self-checkout-accuracy-and-loss/) hırsızlıkların tespiti gibi alanlarda gerçekten yararlı olabiliyorlar. Diğer yandan, banka veya konut kredisine uygunluk; iş başvurularını değerlendirilme; sağlık, sigorta ve sosyal yardım hizmetlerinden yararlanma; şartlı salıvermeye karar verme gibi durumlarda kullanılması oldukça riskli ve temel hak ve özgürlükleri ihlal edebiliyor. Buna karşın OKS’lerin devlet kurumları, şirketler ve diğer kuruluşlar tarafından giderek daha fazla kullanıldığı görülüyor.
Son yıllardaki çalışmalar, OKS’lerin dikkatsiz kullanımının mevcut toplumsal ön yargıları ve eşitsizlikleri devam ettirdiğini veya şiddetlendirdiğini gösteriyor. Özellikle marjinal bireyleri ve grupları olumsuz etkiliyor. Tahmine dayalı polislik algoritmaları ve cezai risk değerlendirme puanları, düşük gelir ve suç gibi korelasyonları nedensel puanlama faktörlerine dönüştürerek tarihsel suç verileri içindeki gizli ön yargıları güçlendiriyor. İnsanların geçmişlerini otomatik olarak analiz eden sistemler, kredi başvurularının olumsuz sonuçlanmasına neden olabiliyor. Çevrimiçi sınava giren öğrencileri kimlikteki fotoğraflarıyla eşleştiren yüz tanıma sistemleri, beyaz ırk dışındaki öğrencilerde istenildiği gibi çalışmıyor. (https://www.theverge.com/2021/1/5/22215727/examsoft-online-exams-testing-facial-recognition-report). Google arama motorunda iş arayan erkeklere, kadınlara göre daha yüksek ücretli iş ilanları gösteriliyor. OKS, bazı ev ilanları sadece belirli kullanıcılara gösteriyor.
OKS’ler ile ilgili sorunların başında teknoloji sektöründeki çeşitliliğin az olması geliyor. Teknoloji sektörü şu anda ağırlıklı olarak benzer sosyo-ekonomik, kültürel, coğrafi ve akademik geçmişe sahip bireylerden oluşuyor. Bunun sonucunda sınırlı bir bakış açısıyla hareket ediyorlar ve potansiyel kullanım durumları, kusurlar ve sonuçları değerlendirmede yetersiz kalıyorlar. Raporda, OKS geliştiricilerinin çeşitliliğini artırmanın ve disiplinler arası bir yaklaşım geliştirmenin önemi üzerinde duruluyor. Ekipte teknik geliştiricilerin yanında sosyal bilimcilerin ve topluluk aktivistlerinin varlığının önemi vurgulanıyor. Masada sadece uzmanların değil, sistemlerden doğrudan etkilenen kişilerin de olması gerektiğini savunan görüşler var.
Reel YZ uygulamaları, çoğunlukla veriye dayandığından tasarımda farklı bakış açılarının yanında sistemleri eğitmek için kullanılan veri de toplumdaki çeşitliliği yansıtabilmeli. Ancak OKS’nin uygulanacağı popülasyonları temsil eden eğitim veri setleri her zaman oluşturulamıyor. Bilgi ve teknik hizmetlere erişimdeki eşitsizlikler nedeniyle toplumun marjinal kesimleri (evsizler, göçmenler, sığınmacılar, engelliler vb) YZ için kullanılan eğitim verilerinde yeterince temsil edilmiyor.
OKS’lerin doğasından kaynaklanan sorunlar da var. OKS’lerin kararlarını nasıl verdiklerini açıklamak çoğu zaman ya çok zor ya da olanaksız olduğundan bu sistemler birer kara kutu olarak görülüyor. Geliştirilen modeller, bazı ölçütlere göre daha doğru kararlar verebilmelerine rağmen bu kararlara nasıl ulaştıkları modeli geliştirenler için bile yeterince anlaşılır olmadığından mağdurların itiraz etmeleri zorlaşıyor. Ayrıca başta toplumun marjinal kesimleri olmak üzere halkın teknoloji okuryazarlılığının zayıf olması OKS’lerin kararlarından etkilenen bireylerin ve grupların kendi çıkarlarını savunabilmelerini ve veri setlerinin eleştirebilmelerini olanaksız hâle getiriyor. Bir OKS haklarında olumsuz bir karar verdiğinde sorunun neden kaynaklandığını fark edemediklerinden düzeltme talebinde de bulunamıyorlar.
Halkın genel olarak bu gibi sistemlerin genel işleyişi hakkında bilgi sahibi olması, ne zaman ve nasıl itiraz edebileceğini öğrenmesi OKS’lerin yanlı/yanlış kararlarını düzeltmeye yardımcı olabilir. Ayrıca sistemlerin izlenmesi ve yönetişiminin, modelin geliştirilmesi ile sınırlandırılmaması; bir OKS hassas görevler için konuşlandırıldığında, bu sistemlerin etkilenen bireylere ve gruplara, sistemin kararına nasıl ulaştığına dair bir açıklama yapılması ve itiraz hakkının olması gerekiyor.
Bireylerin teknoloji okur yazarlılığın zayıf olması çoğunlukla sadece kendilerini ve ailelerini olumsuz etkiliyor. Ancak politikacıların ve kamu çalışanlarının teknoloji okur yazarlılığın zayıflığı OKS’lerin gayet iddialı ama özensiz bir biçimde devreye alınmasına, sistemlerin çıktılarının adil olup olmadığının sürekli izlenmemesine neden oluyor. Diğer yandan, kamu sektöründe kullanılan OKS’lerin faaliyetlerini düzenleme girişimleri de yöneticilerin yetersizliği nedeniyle sekteye uğrayabiliyor.
Hükümetlerin, tüm OKS’lerin yurttaşlık haklarına saygı duymasını sağlama görevi var. Politika yapıcılar düzenlemeleri farklı görüşleri (teknik araştırmacılar ve geliştiriciler, yurttaşlık hakları aktivistleri, sosyal bilimciler, etkilenen topluluklar ve diğer paydaşların görüşleri) dikkate alarak yapmalılar. Daha da önemlisi finans ve sağlık sektöründeki şirketler gibi OKS’ler de düzenli olarak denetlenmeli. OKS’lerin yararlandığı veri setleri, geliştirdikleri modeller, güvenlikleri, eğitim prosedürleri ve değerlendirme ölçütleri bağımsız kuruluşlarca izlenmeli.
Veri yanlılığı ve geliştirilen modeller, OKS’lerin içsel engelleri. Ama bazen masum bir teknoloji, hiç kullanılmaması gereken bir yerde kullanılarak insan haklarını çiğneyebiliyor. Örneğin bazı OKS’ler belirli azınlık topluluklarını gözetlemek ve baskı altına almak, protestocuları izlemek ve bastırmak ve sendikalaşma çabalarını bastırmak (https://www.cnbc.com/2020/10/24/how-amazon-prevents-unions-by-surveilling-employee-activism.html) için kullanılabiliyor. Hükümetlerin en başta tüm OKS’lerin yurttaşlık haklarına saygılı biçimde çalışmasını sağlama görevi var. Daha da önemlisi, OKS’ler kullanımı zorunlu, son moda teknolojiler olarak görülmemeli. Eğer bir OKS; adalet, eşitlik, şeffaflık ve hesap verebilirlik için uygun standardı karşılayacak şekilde tasarlanamıyorsa tüm paydaşların katılımıyla sistemin kullanılıp kullanılamayacağı da tartışılabilmeli!
Veri Gizliliği
Sosyal medya kullanımının yaygınlaşmasıyla beraber mahremiyetten daha sık söz ediyoruz. Şirketler, dijital çağda mahremiyet anlayışının değiştiğini iddia etseler de raporda vurgulandığı gibi mahremiyet, insan onuru ve özerkliği için hâlâ olmazsa olmaz. Mahremiyet, insanların özgür olma, bedenleri, kim oldukları, ne düşündükleri, nasıl yaşadıkları ve kendileriyle ilgili bilgilerin başkalarıyla nasıl paylaşıldığı hakkında seçimler yapma haklarının temelini oluşturuyor.
Reel YZ’de veri miktarı ve çeşitliliği kritik bir yere sahip. Şirketlerin ve hükümetlerin istiflediği ve YZ sistemlerini eğitmek için kullandıkları veri miktarı her geçen gün artıyor. Bu nedenle, son yıllardaki mahremiyet tartışmaları veri gizliliği etrafında dönüyor. Var olan kanunların ve etik emirlerin etkinliği ve uygulanması ciddi zararları önlemek için yeterli olamıyor. Veri gizliliği ihlalleri, özellikle çocuklar, kadınlar, beyaz ırktan olmayanlar gibi toplumun daha zayıf kesimlerini daha fazla etkiliyor.
Veri gizliliği ihlalleri, aşağıdaki gibi sorunlara neden olabilir:
- İnsanların sürekli ve yaygın gözetime tabi tutulması kişisel özgürlükleri sınırlar ve toplanan veriler, daha derin kişisel bilgilerin ortaya çıkarılması için kullanılabilir.
- Verilerin ve üst verilerin yaygın olarak toplanması ve kullanılması için bireyler yeterince ve anlamlı bir biçimde bilgilendirilmiyorlar. Bu koşullarda toplanan veriler, bireyleri ve grupları hedeflemek ve yönlendirmek için kullanılabilir.
- Şeffaflık eksikliği, bireyleri ve grupları YZ sistemlerinin kararlarına karşı koyabilmelerini zorlaştırabilir.
- Çevrimiçi davranışı kullanan algoritmalar bireylerin karar verme haklarını etkileyebilir. Örneğin, oy vermede (https://www.theguardian.com/us-news/2020/sep/28/trump-2016-campaign-targeted-35m-black-americans-to-deter-them-from-voting) ya da flörtte (http://www.sciencedaily.com/releases/2021/04/210421151226.htm) etkili olabilir.
- Çevrimiçi ruh sağlığı hizmetlerinden elde edilen veriler, reklam ve kâr amacıyla yeniden kullanılabilir.
- Çevrimiçi öğrenme sırasında çocuklar, şirketler ve devlet tarafından gözetlenebilir.
- Kişiler, kimliği belirsizleştirilmiş tıklama akışı verileri aracılığıyla yeniden tanımlanabilir.
Veri gizliliği ihlallerini engellemek için hem teknik hem de hukuk alanında çalışmalar yapılıyor. Örneğin, YZ sistemlerinin gizlilik ihlallerini azaltabilecek farklı gizlilik (https://www.youtube.com/watch?v=lg-VhHlztqo), birleşik öğrenme (https://federated.withgoogle.com) ve güvenli çok taraflı hesaplama (https://medium.com/pytorch/what-is-secure-multi-party-computation-8c875fb36ca5) gibi bir dizi matematik ve bilgisayar bilimi tekniği üzerinde çalışılıyor. Veri gizliliğini koruyan birçok mevcut yasa, yönetmelik ve çerçeve, çoğu YZ sistemi ve bunların kullanımı için geçerliliğini koruyor ve yeni ek araçlar geliştiriliyor.
YZ sistemlerinin geliştirilmesi ve işletilmesi boyunca değerlendirme, uygulama ve izlemenin güçlü veri yönetimi uygulamalarıyla gerçekleştirilmesi önemli. Riski azaltmak için aşağıdaki yöntemler uygulanıyor:
- Verilerin düzenli ve etkili biçimde silinmesi;
- Eğitim algoritmalarında kişisel verilerin kullanımının ve oluşturulmasının olabildiğince en aza indirgenmesi;
- YZ sistemleri ve bileşenleri hakkında açık ve tutarlı bir belgelendirme çalışması yapılması;
- Bağlam ve kullanıcı düzeyindeki (örneğin çocuklar için bkz. https://www.dataprotection.ie/sites/default/files/uploads/2021-12/Fundamentals%20for%20a%20Child-Oriented%20Approach%20to%20Data%20Processing_FINAL_EN.pdf ) sorunların ele alınması.
Veri gizliliğin sağlanmasının önündeki en büyük engel kuşkusuz veri gizliliği karşıtı uygulamaların kârlı, veri gizliliğini göz ardı etme teşvikinin güçlü ve sistematik olması. Bunun yanında kimi zaman yasalar etkisiz ve birbiriyle tutarsız da olabiliyor. Raporda özellikle veri gizliliğinin sonradan ele alınan bir özellik olmaması, veri gizliliğini koruyucu ilkelerin en başından itibaren tasarıma yol gösterici olması üzerinde duruluyor.
OKS’lerde olduğu gibi mahremiyet konusunda da hem sistemleri geliştirenlerin hem onun mağduru olanların eğitimi üzerinde duruluyor. Bu doğrultuda, veri gizliliğinin temel okul ve üniversite müfredatına entegre edilmesi; mevcut mühendislik ve YZ geliştirme ekiplerinin mahremiyetle ilgili riskler ve teknolojiler konusunda eğitilmeleri öneriliyor.
Sentetik Medya ve Veri Bütünlüğü
OKS’ler ve mahremiyet son yıllarda sıklıkla gündeme gelen konular olmalarına rağmen sentetik medya henüz yeni yeni ortaya çıkıyor. Sentetik medya, bir dijital medyanın dijital teknolojiler yardımıyla değiştirilmesi sonucu elde ediliyor ve insanları yanıltmayı hedefliyor. Sentetik medya, özellikle derin öğrenme teknolojisinden yararlanan derin sahte (deep fake), insanların yüzlerinin, seslerinin veya hareketlerinin gerçekçi simülasyonlarını oluşturuyor. Böylece insanların hiç söylemedikleri sözleri söyledikleri ya da hiç yapmadıkları hareketleri yaptıkları aldatıcı videolar oluşturulabiliyor.
Derin sahte teknolojileri, film, moda, eğlence sektörü, video oyunları, eğitim, sağlık vb alanlarda kullanılabilir. Derin sahte ile tarihsel kahramanlar, bir tarih öğretmeni gibi karşınıza çıkabilir; bir yüzün ameliyattan sonra nasıl olacağı gösterilebilir; kişilerin mahremiyeti korunabilir (https://www.nytimes.com/2020/07/01/movies/deepfakes-documentary-welcome-to-chechnya.html). Fakat derin sahte, kamuoyunu yönlendirme ve cinsel tacizin yanında delil ve diğer doğrulama süreçlerine olan güveni baltalamak için de kullanılabilir.
Derin sahte uygulamalarının yapımı her geçen gün daha kolay hale geliyor. Böylece yakın zamanda, derin sahtenin toplum, iş ve politikaya etkisini daha sık göreceğiz. Avrupa Parlamentosunun 2021 tarihli raporunda (https://www.europarl.europa.eu/RegData/etudes/STUD/2021/690039/EPRS_STU(2021)690039_EN.pdf) derin sahte olasılığının artmasının toplumun tüm sesli-grafik bilgilere karşı daha güvensiz yaklaşmasına neden olacağı belirtiliyor. Bireyler ve kurumlar, güvenilir bir gerçeklik imajı oluşturmak için yeni beceriler ve prosedürler geliştirmek zorunda kalacaklar.
Son zamanlardaki yalan haberler derin sahtenin ne kadar tehlikeli olabileceğinin ipuçlarını veriyor. Derin sahte ile,
- Kamuoyu, politik gücün çıkarları doğrultusunda yönlendirilebilir.
- Seçimlere veya uluslararası diplomatik ilişkilere zarar verilebilir.
- Kamuya mal olmuş kişiler veya markalar itibarsızlaştırılabilir.
- Yasal sistemdeki deliller karartılabilir.
- Başkalarını taklit ederek çeşitli dolandırıcılıklar yapılabilir.
- Cinsel şantaj, karalama, yıldırma ve gasp amacıyla kullanılabilir (Derin sahtenin ilk kurbanlarının kadınlar olduğunu da atlamamak gerekiyor.)
Yasa koyucuların işi de hiç kolay değil, önlerinde çeşitli zorluklar var. Hangi derin sahtelerin yasa dışı kabul edileceği; ne tip bir uluslararası işbirliğinin gerektiği; derin sahtelerin tanımlanması ve etiketlenmesi yapılacaksa bunun nasıl olacağı; suçlama ve sorumluluk hakkındaki soruların nasıl ele alınacağı gibi konular henüz belirsiz.
Derin sahteye karşı yapılabileceklerin başında yine genel kamuoyunun, teknoloji uzmanlarının ve politika yapıcıların eğitimi en üst sırada yer alıyor. Ayrıca bir yandan derin sahte uygulamaları artarken diğer yandan bunu tespit edici araçlar da geliştiriliyor. DeepTrust Alliance’in hazırladığı raporda (https://static1.squarespace.com/static/5d894b6dcd6a2255c38759fe/t/5e44d9257a6edf3b61208568/1581570371567/DeepTrust+Report+1) derin sahteyi çevreleyen tehditler, maliyetler ve potansiyel müdahaleler ele alınıyor ve dezenformasyona karşı mücadeleyi güçlendirmek için gerekli teknoloji standartları, en iyi uygulamalar ve işbirliği araçlarının oluşturulması üzerinde duruluyor. Avrupa Parlamentosu tarafından hazırlanan raporda (https://www.europarl.europa.eu/RegData/etudes/STUD/2021/690039/EPRS_STU(2021)690039_EN.pdf) da derin sahte hakkında politika önerilerinde bulunuluyor. Derin sahtenin risklerini sınırlamak ve potansiyellerinden faydalanmak için bir dizi önlemin gerekli olacağı savunuluyor.
İçerik Denetimi
Kullanıcılar tarafından oluşturulan içeriklerin belirli bir site, bölge veya yargı alanı için uygun olup olmadığı düzenli olarak taranıyor. Sosyal medya şirketleri bir yandan insanlara ifade özgürlüğü vadederken diğer yandan sosyal medya platformlarını daha güvenli hale getirmeye çalışıyorlar. Sosyal medya şirketleri, içerik denetim sürecini mümkün olduğunca otomatikleştirmeye çalışıyor; içeriği gösterme, düzenleme, filtreleme ve sınıflandırma için YZ araçlarına başvuruyor. Fakat bu yaklaşım, OKS’lerde olduğu gibi, halihazırdaki yanlılıkları yeniden üretiyor ve güçlendiriyor.
Raporda, içerik denetiminin insan hakları ile ilgili üç temel boyutu ele alınıyor. Birincisi, içerik denetiminde YZ’den yararlanan kuruluşlarla ilgili. Şirketlerin yanında hükümete bağlı kurumlar ve düzenleyiciler de kendi yargı alanlarında yayınlanabilecek ve erişilebilecek içeriği sansürlemek için YZ’den yararlanıyorlar. İkinci boyut ise denetimin hangi kriterlere göre yapıldığı. İçerikler değerlendirilirken içeriklerin kimliği belirlenebilir kişiler tarafından yüklenip yüklenmediği; bireylere veya gruplara zarar verme veya ulusal güvenliği veya kamu düzenini tehdit etme riski taşıyıp taşımadığı; bazıları için rahatsız edici ve üzücü olup olmadığı; var olan yasalar çerçevesinde yasaklanmış veya sınırlanmış olup olmadığı dikkate alınıyor. Ayrıca bazı platformlar, içeriğin kalitesini ve kullanıcı talebini de göz önünde bulunduruyor. Örneğin, bazı platformlar düşük kaliteli görüntüleri, dış bağlantıları veya istenmeyen (spam) içerikleri platforma kabul etmiyorlar. Üçüncü boyut ise doğrudan insan hakları ile ilgili. İçerik denetiminin sosyal medyada içerik oluşturanların, bunları tüketenlerin ve içeriği denetleyenlerin haklarını nasıl etkilediği üzerinde duruyor. Bir içeriğin silinmesi kadar platformda kalması da insan haklarını ihlal edebiliyor. Otomatik içerik denetleme kararları, insan hakları ihlallerine ilişkin değerli kanıtların kaldırılması gibi olumsuz sonuçlara neden olabiliyor (https://www.hrw.org/news/2020/09/10/social-media-platforms-remove-war-crimes-evidence).
Otomatik denetim sistemlerinin en başta gelen sorunu, OKS’lerde olduğu gibi, kullanılan araçların doğruluk, güvenilirlik, şeffaflık ve hesap verebilirlik konusundaki sınırlılıkları. Şeffaflık; denetimler, düzenleyicilere ve kamuya açık raporlar, gözetleme kuruluşlarına yapılacak yatırımlar vb. ile artırılabilir. Geri bildirim mekanizmalarının genişletilmesi, kullanıcıların hataları ve ön yargıları ele almasına ve hesap verebilirliği teşvik etmesine olanak sağlayabilir. Ayrıca insan haklarına dayalı bir yaklaşım için otomatikleştirilmiş içerik denetleme kararlarının savunmasız veya marjinal gruplar üzerindeki etkilerine daha fazla özen gösterilmesi gerekiyor.
Sistemleri geliştirenlerin, politika yapıcıların ve kamuoyunun eğitimi içerik denetimi konusunda da önemli. Bu kişilerin özellikle içerik denetimi için kullanılan araçların sınırlılıkları hakkında bilgi sahibi olmaları gerekiyor. Bireyler; dijital alanlarda istedikleri içeriğe maruz kalma düzeylerine kendileri karar verebilmeli. Otomatik içerik denetleme araçları, karar veren ve sorumluluk alan insanları desteklemeli; onların yerini almamalı (İnsan denetmenlerin daha iyi eğitime ve zihinsel sağlık desteğine ihtiyaçları olduğunu da unutmayalım).
YZ’ler platformlardaki içerikleri denetlerken bağlamsal anlayışları insanlara göre daha zayıf olduğundan hatalı kararlar da verebiliyorlar. Dillerin ve kültürlerin sürekli gelişip değişmesi YZ sistemlerinin işlerini daha da zorlaştırıyor. Buna karşın uluslararası dijital platformlar, marjinal dillere daha az yatırım yapıyorlar. Örneğin Facebook’un İngilizce dilindeki içeriğe yaptığı yatırım, tüm güvenlik bütçesinin %87’si. Diğer ülkelerdeki toplulukların ise daha fazla yatırım talep edebilmesi için gerekli koşullar yok.
Sağlık Hizmeti
Raporda sağlık hizmeti, eğitimli ve lisanslı profesyoneller tarafından sağlanan fiziksel, duygusal ve zihinsel iyilik hali olarak tanımlanıyor. İnsan Hakları Evrensel Beyannamesine göre “herkesin kendisinin ve ailesinin sağlık ve refahı için beslenme, giyim, konut ve tıbbi bakım hakkı ” var. Dünya Sağlık Örgütü belgelerinde de sağlığın sadece hastalığın yokluğu olmadığı aynı zamanda dengeli bir zihin ve beden durumu olduğu belirtiliyor.
Günümüzde YZ teknolojisi, bir çok yerde olduğu gibi sağlıkta da kullanılıyor. Tıbbi verileri analiz etmeye, teşhisleri ve sonuçları tahmin etmeye, tıbbi literatürü gözden geçirmeye ve analiz etmeye, tıbbi görüntüleri yorumlamaya yardımcı oluyor. Kovid-19’dan beri sanal teknolojinin bakım sağlama aracı olarak kullanımı önemli ölçüde arttı. Sağlık hizmetlerine uzaktan erişim, belirli popülasyonların sağlık hizmetlerine erişimini kolaylaştırdı. Bu süreçte, veri gizliliği, sistemik ırkçılık, akıl sağlığı ve duygusal bilgi işlem insan hakları ve YZ bağlamında ele alınması gereken konular olarak gündeme geliyor.
Veri gizliliği, sağlık verileri söz konusu olunca daha önemli bir sorun haline geliyor. Bu nedenle, hastanın rızası ve bilgisi olmadan kişisel verilerinin paylaşılamayacağını belirten sıkı düzenlemeler var. Fakat akıllı telefonlardaki sağlık uygulamaları yeni sorunlar doğuruyor. Örneğin, telefonda kurulu bir sağlık uygulamasında başta Google ve Apple olmak üzere telefon üreticisi aktörler, uygulamayı yapanlar ve çeşitli üçüncü taraflardan oluşan servis sağlayıcılar kişisel verilere erişebiliyorlar. 2021 yılında yayımlanan bir rapora göre veri toplamanın yaklaşık %87’si bu üçüncü taraf servis sağlayıcılar tarafından yapılıyor (https://www.bmj.com/content/373/bmj.n1248) ve yasalarca tam düzenlenmemiş boşluklardan yararlanıyorlar.
Sağlıkta; dijital bakım, âdet takip uygulamaları, Fitbits vb dijital teknolojiler kullanılıyor. Bu teknolojilerin güvenlik ayarlarının, toplanan veri türlerinin ve katılım seçeneklerinin farklı olması ve teknolojinin yasal düzenlemelerin (en azından!) bir adım önünde olması yasal düzenlemelerin işlerliğini azaltıyor. Anlaşılması güç gizlilik metinleriyle karşı karşıya kalan bireyler, uygulamaları kullanabilmek için okumadıkları (okusalar bile anlayamayacakları!) metinleri onaylamak zorunda kalıyorlar.
Önceki bölümlerde sık sık değinilen algoritmaların yanlığı sorunu burada da karşımıza çıkıyor. Araştırmacılar ve sağlık hizmeti çalışanlarının gösterdiği gibi sağlık algoritmaları ırksal sağlık eşitsizliklerini yeniden üretebiliyor. Ayrıca YZ eğitim verileri bir popülasyonu doğru bir şekilde temsil etmediğinde algoritmalar yanlış temsil edilen gruplar için daha az doğru sonuçlar veriyor ve bu da yanlış teşhise, genelleme eksikliğine ve hatta ölümcül sonuçlara yol açabiliyor. Bu tür ön yargılar YZ sistemlerine yerleştirildiğinde, siyahlar, kadınlar, Latinx topluluklar ve LGBTQIA+ gibi verilerde yeterince temsil edilmeyen topluluklar için daha fazla eşitsizlik kaynağı olabiliyor.
Sağlık bağlamında da önerilen çözümlerin başında şeffaflık geliyor. Ayrıca çözümlerin önerilen teknolojiden etkilenebilecek kişilerle işbirliği içinde tahayyül edilmesi, tasarlanması, sunulması ve sürekli iyileştirilmesi öneriliyor. İnsan çeşitliliğinin tüm boyutlarında temsili için çaba gösterilmesi ve eşitlik merkezli bir yaklaşım geliştirilmesi üzerinde duruluyor. YZ sisteminin kararından etkilenen hastalar ve sağlık çalışanlarının algoritmaların nasıl geliştirildiğine, hangi değişkenlerin ve neden dahil edildiğine, algoritmayı beslemek için kullanıcıdan hangi verilerin toplandığına, bu verilerin nasıl toplandığına ve korunduğuna ilişkin net açıklamalara erişebilmeleri gerekiyor. Bu doğrultuda geliştirilen önerilerden biri Stoyanovich ve Howe’in gıda etiketleri. Stoyanovich ve Howe, gıda endüstrisine atıfta bulunarak besin etiketi kavramına dayalı yorumlanabilirlik ve şeffaflık araçları geliştirmeyi öneriyor (http://sites.computer.org/debull/A19sept/p13.pdf).
Sağlık çözümlerinin tasarımı ve geliştirilmesi boyunca (özellikle ilk aşamalarda) multi-disipliner bir yaklaşımın yararlı olacağı savunuluyor. Belirli bir ürünün gerekliliği; gerekliyse istenmeyen sonuçları önlerken en büyük faydayı sağlamak için bunun en iyi nasıl yapabileceği gibi konularda eleştirel düşünebilmek için sosyoloji, psikoloji, tarih gibi disiplinlerin ve sahadaki sağlıkçıların bakış açılarına gerek var.
Hastaların veya dijital teknolojileri çeşitli amaçlar için kullananların kendi haklarında toplanan veriyi kontrol hakkına sahip olmaları daha sağlıklı (!) bir işleyiş sağlayacaktır. Bireylere verilerini bir şirketle paylaşmayı onaylama ve istekleri zaman verilerini kaldırma yetkisi verilmeli. Gelecekteki araştırmalar, hem sağlık hizmetlerinde şeffaflık ve veri paylaşımını mümkün kılmalı hem de hastaların mahremiyetini koruyan YZ standartları geliştirmeye odaklanmalı.
Raporda ele alınılan duygusal YZ ise reklamcılık, pazarlama ve insan kaynakları gibi birçok sektörde ortak iş işlevlerini geliştirmek için kullanılıyor. Özellikle sağlık endüstrisinde ve ruh sağlığı alanında duygusal YZ çalışmaları artıyor. Buradaki temel zorluk, insan duygularının karmaşık ve ölçülmesinin zor olması. Bu nedenle, YZ tabanlı duygu tanıma sistemleri henüz tatmin edici kestirimlerde bulunamıyorlar. Duygu temelli sistemlerin sağlık hizmetlerinde kullanılması beraberinde yeni olanaklar ve riskler getiriyor.
Gözetim Teknolojisi, Öngörü Teknolojisi ve Ceza Adaleti
Gözetim teknolojileri artık gündelik hayatın bir parçası. Kullanıcıların hangi paylaşım ya da reklama tepki vereceğini tahmin etmeden yüz tanıma özelliği ile telefon kilidi oluşturmaya kadar bir çok alanda karşımıza çıkıyor. CCTV, nesnelerin interneti, akıllı asistanlar gibi teknolojileri gözetimi göz önünde bulundurmadan tartışamıyoruz. YZ ve görüntü tanıma teknolojileri insan haklarını ilerletmek için kullanılabilir. Uydu verilerinin kullanımı yerinden edilmiş insanların akışını izleyebilir veya YZ ve görüntü tanımaya teknolojisi, hak ihlalleri hakkında veri toplamaya yardımcı olabilir; adli teknolojinin yardımıyla suç mahalleri yeniden oluşturabilir ve failler sorumlu tutabilir. Ancak gerçek hayatta bunların olmadığını, otoriter rejimlerin muhalif hareketleri düzenli olarak izlediğini, şirketlerin gözetim teknolojilerinden daha fazla kâr elde etmek için yararlandığını biliyoruz.
En büyük tartışmalardan biri ise gözetim teknolojilerinin suçluları önceden tespit edebilmek amacıyla kullanılması. Bu sistemleri kullananlar, kamu güvenliğini sağlama iddiasında olsalar da insan hakları örgütleri söz konusu sistemlerin mahremiyeti ve insan haklarını olumsuz etkilediğini savunuyor. Mahremiyet, yurttaşların rızası ve hesap verilebilirlik bağlamında aşağıdaki sorular üzerinde duruluyor:
- Kimin verileri toplanıyor ve bu kişi veya grubun farkındalık, rıza ve kontrol düzeyi nedir?
- Veriler neden toplanıyor ve veriler ne için kullanılıyor?
- Bir yapay zeka sistemi tarafından verilen karar yanlış olduğunda ne oluyor?
Eğer YZ, gözetim sisteminin kullanımı için gerekli görülüyorsa tasarımcılar ve kullanıcıların sürekli bu soruları sorması; mahremiyeti sisteme sonradan eklenen bir özellik olarak değil en baştan hesaba katılması gereken bir durum olduğunun bilincinde olmaları önemli.
Bu bağlamda, tasarım yoluyla veri koruması (data protection by design) ve varsayılan olarak veri koruması (data protection by default) yaklaşımları yol gösterici olabilir. Tasarım yoluyla veri korumasında, şirketler/kuruluşlar, tasarımının en başından itibaren gizlilik ve veri koruma ilkelerini koruyacak şekilde teknik ve örgütsel önlemleri uygulamaya teşvik edilir. Tasarım yoluyla veri korumasında farklı yöntemler uygulanabilir. Örneğin, takma ad kullanımı (kişisel olarak tanımlanabilir materyalin yapay tanımlayıcılarla değiştirilmesi) ve şifreleme (mesajları yalnızca yetkili kişilerin okuyabilmesi için kodlama). Varsayılan olarak veri korumasında ise şirketler/kuruluşlar en başından itibaren kişisel verilerin en yüksek gizlilik korumasıyla işlenmesini sağlamalıdır (örneğin, yalnızca gerekli verilerin işlenmesi, kısa saklama süresi, sınırlı erişilebilirlik), böylece varsayılan olarak kişisel verilerin süresiz olarak erişilebilir kılınmaması gerekir. Örneğin bir sosyal medya platformu, kullanıcı profilinin erişilebilirliğini en başta veri gizliliğini sağlayacak biçimde yapmaya teşvik edilmelidir (https://ec.europa.eu/info/law/law-topic/data-protection/reform/rules-business-and-organisations/obligations/what-does-data-protection-design-and-default-mean_en).
Eğitim ve katılımcılık burada da karşımıza çıkıyor. Öncelikle tasarımın her aşamasında savunmasız grupları merkeze alan bir yaklaşım benimsenmeli; dijital katılımı ve dijital eşitliği teşvik eden çalışmalar desteklenmeli. Ayrıca veri toplamanın ve yönetiminin daha sağlıklı yürütülebilmesi için hükümetler, politika yapıcılar ve teknoloji şirketleri faaliyetlerini insan haklarını göz önünde bulundurarak yapmaya zorlanmalı.
Siber Güvenlik ve Otonom Silahlar
Günümüzde siber güvenlik, her geçen gün karmaşıklığı ve ölçeği artan siber saldırılara karşı mücadele ediyor. Siber saldırılar, zararsız istenmeyen e-postalar gibi basit olabileceği gibi bilgisayar virüsleri, veri ihlalleri, kimlik hırsızlığı, siber suçlar ve hizmet reddi saldırıları gibi daha tehlikeli; altyapı ve ulusal güvenliğe yönelik saldırlar gibi daha geniş kapsamlı olabiliyor. ABD, Çin, Japonya, Kenya, Rusya ve Avrupa Birliği (AB) üye ülkeleri vs siber saldırıları ve siber savaşı ulusal güvenlik kapsamında değerlendiriyor. YZ’nin siber saldırılarda kullanımı, saldırıları daha hızlı ve tehlikeli yapabiliyor.
Siber güvenlik ve insan hakları sorunu farklı boyutlarda karşımıza çıkabiliyor. Siber güvenlik yasaları, ifade özgürlüğünü, konuşma özgürlüğünü, mahremiyet hakkını, düşünce özgürlüğünü ve çevrimiçi örgütlenme özgürlüğünü etkileyebiliyor. Örneğin 2019 yılında Vietnam’da çıkan siber güvenlik kanunu, şirketleri devlet karşıtı içerikleri kaldırmaya zorluyor ve ve kullanıcıların hükümet karşıtı enformasyonu dağıtmasını yasaklıyor. GP Digital (https://www.gp-digital.org) uluslararası yasalar ve insan hakları bağlamında siber güvenlik gözetiminin “gerekli ve orantılı ilkeler ” uygulandığı sürece kabul edilebilir olduğunu savunuyor.
Ayrıca otonom silah sistemleri (OSS) de son yıllarda en çok tartışılan konulardan biri. Uluslararası Kızıl Haç Komitesi, OSS’lerin uluslararası insan hukukuna uygun olarak kullanılması gerektiğini belirtiyor. Bu doğrultuda saldırıda önleyicilik, sivil ve askeri hedefler arasındaki temel ayrımlar üzerinde duruluyor. OSS savunucuları böylece savaşı daha doğru (!) hale getireceklerini savunuyorlar. Karşı çıkanlara göreyse OSS’ler tehlikeli ve uluslararası insan hakları ile uyumlu değiller. Bu bağlamda tezleri, yapay genel zekâ tartışmaları için de önemli. OSS muhalifleri, gerçek insan kontrolü olmadan güç uygulayan teknolojilerin toplumun tüm alanlarında yapay zekâ ve yeni teknolojilerle ilişkimiz için temel bir test sağladığını savunuyorlar. Dijital insansızlaştırmayı reddetmenin ve güç kullanımı üzerinde anlamlı insan kontrolü sağlamanın şimdi ve gelecekte tüm insanlar için teknoloji ile daha güçlü bir ilişki kurmanın temel adımları olduğunu vurguluyorlar.
OSS’ler sınır kontrolü ve polislik gibi silahlı çatışma dışındaki durumlarda da kullanılabileceği gibi bu silahlar devlet dışı güçlerin de eline geçebilir. Ayrıca OSS’lerin kendileri de saldırı hedefi haline gelebileceğini unutmamak gerekiyor. OSS yazılımları, hedef profilleri, sensörler ve diğer ilgili bileşenleri saldırıya uğrayabilir. Bu saldırı basitçe bir silahın GPS adresinin değiştirilmesi (https://www.vice.com/en/article/ezvknz/when-the-killer-robots-arrive-theyll-get-hacked) ile gerçekleştirilebilir. Üstelik OSS’ler hatasız sistemler değil; hatalar yapıyor ve yanlış hedefleri vuruyorlar (https://www.scientificamerican.com/article/ai-influenced-weapons-need-better-regulation/).
OSS’lerin geliştirilmesi (veya kısıtlanması) için politika, düzenleme ve standartlar konusunda uluslararası işbirliğini geliştirmek için çalışmalar yapılıyor. 180’den fazla örgütün küresel işbirliğinden oluşan “Katil Robotları Durdurun” koalisyonu (https://www.stopkillerrobots.org/) devletlere tamamen özerk silahlar geliştirme, üretme ve kullanmayı tamamen yasaklayan yasalar, politikalar ve diğer bağlayıcı anlaşmalar benimsemelerini tavsiye ediyor. Google (https://www.armscontrol.org/pressroom/2018-acpoy-winner) ve Microsoft (https://www.vox.com/2019/2/22/18236290/microsoft-military-contract-augmented-reality-ar-vr) çalışanlarının protestoları da çalışanların gücünün boyutlarını gösteriyor. Ayrıca halkın kullanılan teknolojilerin insanların sorumluluğunda olup olmadığını, nerelerde kullanıldığını ve sonuçları hakkında bilgi sahibi olmaya hakkı var.
***
Raporda, yedi temel alanla ilgili tehditler ve yapılabilecekler sıralandıktan sonra raporun devamında bazı akademisyen, şirket temsilcisi ve aktivistlerle yapılan röportajlar yer alıyor. Birçok röportajda YZ’nin sadece geliştiricilere ve şirketlere bırakılmaması, yurttaşların aktif roller üstlenmesi gerektiği üzerinde duruluyor; YZ’den olumsuz etkilenenlerin sesi olmaktan söz ediliyor. İnsan merkezli YZ sistemleri geliştirmekten söz edenler var. İnsan merkezli YZ, kullanıcılarını anlayan ve aynı zamanda kullanıcıların sistemi anlamasına yardımcı olan bir sistem olarak tanımlanıyor. İnsan merkezli YZ ilkeleri şeffaflık, hesap verebilirlik, mahremiyet, adalet, katılım, güvenlik ve güvenlik etrafında dönüyor.
Ama rapor, ağırlıkla kapitalizmin sınırları içinde yer alsa da bazen ister istemez bu sınırların dışına çıkmak zorunda kalıyor. Örneğin Dr. Ellie Sakhaee (Microsoft), insan merkezli YZ’nin yeterli olamayacağını, YZ’nin aynı zamanda doğa merkezli olması gerektiğini savunuyor ve YZ sistemlerinin doğal dünyaya, hayvanlara, iklime veya ekosisteme zarar vermemesi gerektiğini vurguluyor.
Dyer-Witheford vd’nin (2022) yazdığı gibi “YZ’nin herhangi bir çıkarı olmayan bir araştırma sürecinin sonucu olarak tasvir edilmesi naifliktir. Makine zekâsı sadece teknolojik bir mantığın değil, aynı zamanda toplumsal bir mantığın, artı değer üretimi mantığının da bir ürünüdür ” (s. 12). Raporda yer alan bazı röportajlarda ister istemez YZ’nin kapitalizmin mantığının dışında ele alınması gerektiği savunuluyor. Örneğin Camille Carlton (Center for Humane Technology), insan refahı yerine kârlara öncelik vermeyi bırakmamız gerektiğini savunuyor. Bunun da “her ne pahasına olursa olsun büyüme ” paradigmamızı yeniden düşünmemiz ve YZ’yi topluma fayda sağlamak ve insan haklarını korumak için yeniden düzenlemek anlamına geldiğini belirtiyor. Dr. Peaks Krafft (University of the Arts London) ise yeni teknolojiler inşa etmeyi bırakmayı ve bunun yerine, eşitsizliğe doğrudan müdahale etmek için, finans ve işgücü kaynaklarını yeniden dağıtmayı öneriyor. Vilas Dhar (Patrick J. McGovern Foundation) da artık YZ’nin her yerde bulunan bir teknoloji haline geldiğini, YZ’nin tasarımını, geliştirilmesini ve dağıtımını ayrıcalık ve kârlar üzerinde yapmamamız gerektiğini yazıyor.
Kısacası rapor, bazı sorunları gündeme getiriyor ve çözüm önerileri sunuyor. Ama “YZ ve İnsan Hakları ” tartışmasının ötesinde kapitalizm koşullarında reel YZ’nin ne kadar insan ve doğa odaklı olabileceğini tartışmamız gerekiyor.
Kaynaklar
All Tech Is Human (2022), AI and Human Rights. Building a Tech Future Aligned With the Public Interest, https://alltechishuman.org/ai-human-rights-report?s=09
Dyer-Witheford, N., Kjøsen, A. M., & Steinhoff, J. (2022). Yapa Zekâ ve Kapitalizmin Geleceği. İnsan Dışı Bir Güç (Çev. Barış Cezar). İletişim
İlk Yorumu Siz Yapın