"Enter"a basıp içeriğe geçin

Algoritma Sosyolojisi

Pandemiyle beraber hızlı bir dijitalleşme sürecine girdik. Uzaktan çalışma yaygınlaştı ve bir çok şirket pandemi sonrasında da buna devam etme kararı aldı. Öğrenciler uzun bir süre yüz yüze eğitimden uzak kaldılar ve eğitim süreci, dijital teknolojiler yardımıyla devam ettirilmeye çalışıldı. E-ticaret arttı ve analog dünyanın dükkanları dijital platformlara taşındı. Dijitalleşme tam anlamıyla tatmin edici değildi. Fakat bu süreçteki eksiklikler ve sorunlar, metaevren gibi dijitalleşme projelerinin vizyonlarının belirlenmesinde etkili oldu.

Ancak sorunları teknolojik araçlarla çözme girişimleri kimi zaman daha büyük sorunlara neden oldu. 2020’de Britanya, öğrencilerin üniversiteye girişlerinde belirleyici olan sınavı pandemi nedeniyle yapamadığı için bunu öğretmenlerin vereceği notlarla ikame etmeye çalışmış fakat bu karar tahmin edilebileceği gibi abartılı notlara neden olmuştu. Bunun üzerine Ofqual (Yeterlilik ve Sınav Yönetmeliği Dairesi), öğrencilerin aldığı notların yanında okudukları okulun geçmiş (!) başarılarını da dikkate alan bir algoritma geliştirdi. Ancak bu karar, işçi sınıfından ve dezavantajlı topluluklardan gelen öğrencilerin mağdur olmasına neden oldu ve özel okul öğrencilerinin puanlarını artırdı. Ofqual, öğrencilerin protestoları sonrasında geri adım atmak zorunda kaldı.

Karen Hao’nun yazdığı gibi Ofqual’un algoritması algoritmik ayrımcılık için iyi bir örnekti. Öğrencinin geleceğinin geçmiş akademik performansına ek olarak okulunun geçmiş giriş sınavındaki performansına bağlı olması kuşkusuz büyük bir haksızlıktı. Ofqual, iki temel hedefle yola çıkmıştı. Birincisi, not enflasyonunu önlemek ve puanları standart hale getirmekti. İkincisi, öğrencileri üniversiteye girişte olabildiğince doğru bir şekilde değerlendirmekti. Fakat yukarıdan gelen bir talimatla ilk hedefi önceliklendirdiler. Merhaba Dünya: Makine Çağında İnsan Olmak kitabının yazarı, Londra Üniversitesi Akademisi’nden Hannah Fry, sorunun bu tercihle başladığını düşünüyor: “Yanlış şey için optimizasyon yapıyorlardı. Aslında algoritmanın ne olduğu önemli değil – asla mükemmel olmayacaktı.” (https://www.technologyreview.com/2020/08/20/1007502/uk-exam-algorithm-cant-fix-broken-system/).

Britanya’da yaşananlar son yıllarda sıkça rastladığımız algoritma vakalarından biriydi. Ama bu sefer daha geniş bir kesimin mağduriyeti söz konusuydu ve öğrencilerin hedefinde doğrudan algoritma vardı (https://www.theguardian.com/commentisfree/2020/aug/19/ditch-the-algorithm-generation-students-a-levels-politics). Bozuk düzende sağlam algoritma olmaz. Dolayısıyla, birçok yazar sistemsel sorunlara dikkati çekti. Örneğin Hao, yukarıda değindiğim yazısında İngiltere’deki sınav fiyaskosunun algoritmaların bozuk sistemleri düzeltemeyeceğini hatırlattığını yazıyordu. Peter McColl da sorunun algoritmalar değil, sınıf sistemi olduğunu; bir dizi denklemin adaletsiz eğitim sistemini yaratmadığını, ortaya çıkardığını vurguladı. (https://www.opendemocracy.net/en/opendemocracyuk/the-problem-isnt-the-algorithm-its-the-class-system/ ).

Toplumsal sorunları çözmek için kullanılan teknolojilerin algoritmik kestirimleri ve bunun sonucunda yaşanan mağduriyetler son yıllarda en çok tartışılan konulardan biri. Ofqual’ın yararlandığı teknoloji, istatistiksel modellere dayanıyordu ve öğrenciler aşağı yukarı notlarının hangi parametrelerle düştüğünün farkındaydı. Fakat son yıllarda, yapay öğrenmeye veya YZ (yapay zekâya) dayalı daha kara kutu (black-box) kestirim teknolojilerinin daha sık kullanıldığını görüyoruz. Söz konusu teknolojiler, sosyal yardımların dağıtımından işe alımlara, şartlı salıvermeden polis operasyonların hangi bölgede yoğunlaştırılacağına kadar çeşitli karar alma süreçlerinde etkili oluyorlar. Ben de daha önce bir çok yazıda teknolojiye kızmaktansa onu toplumsal eşitsizlikleri derinleştirmek için tasarlayan ve kullananları tartışmaya çalıştım. Sonuçta algoritmalar, şirketler ve hükümetler tarafından şekillendirilmiyor mu?

Hâlâ yapay genel zekâdan değil, belirli işleri yapmada uzmanlaşmış YZ sistemlerinden söz ediyoruz. Ama söz konusu YZ sistemlerini buhar makinesi, otomobil, televizyon gibi teknolojiler gibi değerlendirmek yeterince açıklayıcı olmuyor. Bu bağlamda, Machine habitus: Toward a sociology of algorithms adlı kitabında YZ sistemlerini bir eyleyici (actant) olarak ele alan ve algoritma sosyolojisi fikrini ortaya atan Massimo Airoldi, farklı bir perspektif sunuyor.

Neden Algoritma Sosyolojisi?

Son on yılda meydana gelen iki büyük teknolojik ve sosyal dönüşüm, bir algoritma sosyolojisi ihtiyacını ortaya çıkarıyor. Birincisi, dijital teknolojilerin insanların ve kuruluşların yaşamlarına ve rutinlerine benzeri görülmemiş bir şekilde girmesinden kaynaklanıyor. 2010’ların başından beri akıllı telefonların hızla yayılmasıyla milyarlarca kişi ellerinde güçlü bilgisayarlarla yaşamaya (eğlenmeye, sosyalleşmeye, çalışmaya vs) başladı. Pandemide dünya çapında uygulanan fiziksel mesafe normlarının ardından, insanların iş, eğlence ve kişiler arası iletişim için dijital teknolojilere olan güveni daha da arttı. Çok sayıda makine, sosyologların toplum olarak adlandırdıkları heterojen kültür, ilişkiler, kurumlar ve uygulamalar demetinin içinde yer almaya başladı. İkinci değişim ise dijital toplumumuza gömülü makine türleri ve YZ teknolojilerindeki nitel değişim ile ilgili. Bilgisayarların tarihi olaylardan oluşan veri setlerinden anlamlı örüntüleri belirlemesini ve çıkarmasını sağlayan yapay öğrenme algoritmalarının geliştirilmesi ve endüstriyel olarak uygulanması önemli bir dönüm noktası oldu. Daha önceki yapay öğrenme çalışmalarının sınırlı bir etkisi olmuştu. İnsan ölçeğinde bir öğrenme, insan ölçeğinde bilgiye gerek duyuyordu. İlk dönüşüm, veri miktarını artırarak yapay öğrenmenin gelişimi için ideal bir ortam hazırladı. Dijital veri birikimi yoluyla insanların bilişsel yetenekleri bilgisayarlara aktarılmaya başlandı. Böylece sosyal ve kültürel görevlerin otomasyonu, eşi benzeri görülmemiş bir ölçekte olanaklı hale geldi.

19. yüzyılda Avrupalı bilimciler ve entelektüeller “toplum”u keşfetmişler ve sosyoloji disiplininin temellerini atmışlardı. Bağlamlarından ve toplumsal aidiyetlerinden ayrı olarak kuramlaştırılan bir rasyonel birey olan Homo Economicus‘un yerini topluluk, sınıf, grup ve kültür gibi kolektif öznelerin içinde yer alan insanlar almaya başlamıştı. Şimdi de 19. yüzyıldakine benzer bir sürecin içindeyiz. Akıllı makineler, insanlar gibi, toplumsal düzenin süregelen gerçekleşmesinde aktif ajanlar olarak ortaya çıkıyorlar. Algoritmik sistemlerin taraflılığı ve ayrımcılığı üzerine yapılan çok disiplinli araştırmalar ile sosyal ve teknik arasındaki etkileşim geçmişte olduğundan daha görünür hale geliyor. Şimdi sosyolojinin önünde algoritmik sistemlerin neden ve hangi koşullar altında bu şekilde davrandığını açıklama ve teorileştirme görevi var.

Airoldi (2022), YZ ve algoritmaların toplumsal etkileri hakkındaki çalışmaların şimdilerde daha çok makineleri geliştiren bilgisayar bilimciler ve mühendisler tarafından yürütülmesini bir eksiklik olarak görüyor. Bu kişilerin matematik ve mühendislik alanında uzman olmalarına karşın sosyal ve kültürel fenomenler hakkındaki birikimlerinin sınırlı olduğunu belirtiyor. Ayrıca çalışmalarda insan-makine etkileşimlerinin genellikle davranışsal ekonominin teorik ve metodolojik mercekleri aracılığıyla yorumlanması ve algoritmaların toplumdan ayrı rasyonel ajanlar olarak ele alınması da sık rastlanılan bir durum. Dahası, anlamanın ve teorinin yerini büyük veri analizine dayalı korelasyonlar alıyor. Sosyal bilimciler daha çok haksız algoritmik davranışların düzeltilmesi bağlamında YZ araştırmalarına dahil oluyorlar.

Aslında, insanlar ve makineler arasındaki ayrım, sosyal bilimlerdeki önemli tartışma konularından biri. Steve Woolgar, 1985’te yayımlanan Neden Bir Makine Sosyolojisi Değil? başlıklı makalesinde bir makine sosyolojisinin temel amacının YZ araştırmacılarının pratik günlük aktivitelerini ve söylemlerini incelemek olduğunu yazıyordu. Woolgar ayrıca araştırma konusu akıllı makineler olan alternatif bir makine sosyolojisi de tahayyül ediyordu. Aktör-Ağ Teorisi (Actor-Network Theory – ANT) ise ana akım sosyolojiyi toplumsal yaşamın teknolojik ve maddi yönlerine yeterince önem vermemekle eleştiriyordu. Bu nedenle ANT teorisyenleri, hem maddi nesneleri hem de insanları “eyleyenler” (actants) olarak betimleyerek insan merkezli faillik kavramlarını radikal bir şekilde revize ettiler ve sosyal yaşamı, insan ve insan dışı failleri içeren heterojen ilişkiler dizisinin sosyo-maddi ürünü olarak görmeye başladılar. ANT’nin önemli isimlerinden Bruno Latour, insan kitlelerini sosyal teorinin dokusuna yerleştiren ilk sosyologlar gibi insan dışı kitleleri de sosyal teoriye dahil etmeye çalıştı.

Nesneleri, eyleyenler olarak ele almak tartışmalı bir konu. Ama günümüzdeki YZ sistemlerini ve algoritmaları, pasif bir konumda ele almak da yeterince açıklayıcı değil. Söz konusu sistemler; nesneler ve bilgiler arasında olasılıksal ilişkiler kurarak verileştirilmiş, nicelleştirilmiş ve sayısal olarak işlenebilir bilgiye dönüştürülmüş sosyalden öğreniyor ve sonra onu manipüle ediyorlar. Rahwan vd (2019) Nature’da yayımlanan makalelerinde yapay öğrenme araçlarının son derece sosyal hayvanlar olduklarını, salt mühendislik ürünlerine indirgenemeyeceğini, belirli davranış kalıpları ve ekolojisi olan bir aktörler sınıfı olarak araştırılmaları gerektiğini savunuyorlar. Airoldi (2022) de ANT teorisyenleri gibi cansız nesnelerin failliğe (agency) sahip olabileceğini belirtiyor ama daha temkinli davranarak bunun insanın failliğiyle aynı olmadığının altını çiziyor. İki faillik biçimi birbiriyle iç içe geçmiş olmasına karşın insan failler, makinelerin sahip olmadığı amaç ve farkındalık biçimlerine sahipler. Fakat burada yapay öğrenme sistemini bir eyleyene çeviren, sistemin zeki olmasından çok sosyal dünyanın izlerinden öğrenebilmesi ve onları sonradan eğilimlere dönüştürerek dünyada bir fark yaratması oluyor. Çevrimiçi algoritmalar yalnızca insanlar arası etkileşimlere aracılık etmekle kalmıyor, aynı zamanda bir tür teknolojik bilinç dışı ile internet kullanıcılarının günlük yaşamlarına yön veren görünmez bir güç haline gelerek gerçekliği dönüştürüyor. Böylece gerçekliğin bilincine veya anlamlı bir anlayışına sahip olmamalarına rağmen, pratik olarak toplumun yeniden üretimine katkıda bulunuyorlar.

Airoldi’nin (2022) algoritma sosyolojisi tezi iki temel soru üzerinde ilerliyor. Birincisine kodun içindeki kültür adını veriyor ve algoritmik sistemlerin nasıl sosyal olarak şekillendirildiği üzerinde duruyor. Örneğin yanlılık yapay öğrenme sistemlerinde önemli bir sorun ve araştırmacılar yapay öğrenme sistemlerindeki veya veri kümelerindeki yanlılığı ortadan kaldırmanın çeşitli yollarını ararlar. Fakat bu girişimler genellikle YZ’deki yanlılığın kültürel kökenlerini göz ardı eden sonradan yapılan müdahaleler olarak gerçekleşiyor. İkincisi ise Airoldi’nin (2022) kültürün içindeki kod olarak adlandırdığı, insanların algoritmaların eylemlerine nasıl karşılık verdiği sorusu. Öneri sistemleri, arama motorları, sohbet robotları, dijital asistanlar, bilgi filtreleme algoritmaları vb sistemlerin çıktıları, milyarlarca insanın gündelik yaşamını yönlendiriyorlar. Algoritmalar, hem insan hem de insan olmayan failleri içeren yerleşik sosyo-materyal etkileşimlerde yer alarak toplumsal ilişkilere müdahale ediyorlar. Her iki soru da birbiriyle yakından ilişkili: Toplum, toplumu oluşturan ve aynı zamanda onun tarafından yapılan üyelerinin kolektif olarak eylemleriyle yeniden üretiliyor.

Airoldi’nin algoritma sosyolojisinde Bourdieu’nun habitus kavramı önemli bir yere sahip. Habitus, sosyal yapı ile bireysel pratik, kültür ve biliş arasındaki etkileşimi anlatıyor. Bu çerçevede, içgüdüsel jestleri, sınıflandırma şemaları ve bilinçsiz ön yargılarıyla özneler ne doğal ne de benzersizdir; tarihin bir ürünüdürler. Habitus, faillerin dünyayı gördükleri ve onun içinde hareket ettikleri bir tür görünmez mercektir. Bireysel eylem ne önsel (apriori) belirlenir, ne de tamamen özgürdür. Bireysel eylem, habitus tarafından şekillendirilen bilişsel bir “model” ile çevreden gelen dışsal “girdiler” arasındaki olumsal etkileşimden kaynaklanır. Bourdieu, 1990 yılında katıldığı bir TV programında habitus’u dünyanın uyaranlarına üretken bir şekilde yanıt veren bir bilgisayar programına benzetirken aslında tam da günümüzdeki yapay öğrenme sistemlerini anlatıyor. Yapay öğrenme sistemlerinin çıktıları bir analog hesap makinesinin mekanik çıktılarına benzemez. Uygulamalar, uyarlanabilir bir hesaplama modeli ile belirli bir veri bağlamı arasındaki dinamik etkileşimler üzerine kuruludur ve veriye dayalı eğilimler, bir makine habitusunda kristalleşen eğilimler olarak kodlanır.

Makinedeki Kültür

Airoldi (2022), Latour’dan farklı olarak tüm cansız nesneleri sosyolojisine dahil etmediği gibi algoritmalar konusunda da seçici davranıyor. Algoritmaları dönemsel olarak üç başlık altında inceliyor. Birincisi, İkinci Dünya Savaşı sonrası ilk dijital bilgisayarların geliştirildiği 1945’e kadar olan analog dönemdir. Bu dönemde algoritmalar, ya insan denetimli mekanik cihazlar tarafından ya da bizzat insanlar tarafından uygulanır. 20. yüzyılın başlarına kadar, ‘bilgisayar’ kelimesi, elle hesaplama yapmak için çalışan bir kişiyi ifade eder. Mekanik bilgisayarlar, Leibniz’in kalkülüsün mekanizasyonu hakkındaki erken sezgilerini takiben, 19. yüzyılın başında kavramsallaştırılmaya başlanır. Masa tipi hesap makinelerinin ve ticari muhasebe makinelerinin seri üretimi, algoritmaları sıradan insanların günlük rutinlerine yaklaştırsa da enformasyon, yalnızca analog yollarla (delikli kartlar, kağıt bantlar gibi) ve insan denetimi altında sayısal olarak dönüştürülmekte ve detaylandırılmaktadır.

1946’da ilk dijital bilgisayarların icadıyla algoritmaların dijital dönemi başlar. Algoritmik modeller tasarlamak, bunları çalıştırmak, girdi verilerini okumak ve çıktı sonuçlarını, bit olarak depolanan ikili sayıların kombinasyonları olarak dijital biçimde yazmak olanaklı hale gelir. Böylece veri işleme hızı ve gücü de artar. Algoritmalar, bilgisayar bilimi adı verilen yeni bir disiplinin kritik bir parçası haline gelir. Süper bilgisayarların şirketlerde ve üniversitelerde ortaya çıkmasıyla birlikte, otomatik bilgi işleme, savaş sonrası kapitalizmin mekanizmalarına giderek daha fazla yer almaya başlar. Otomatikleştirilmiş uygulamalar yaygınlaşır. Bu dönemde, “düşünen makineler” yaratmanın eski hayali, yeni nesil bilim adamları arasında yeniden canlanır ve YZ’nin temelleri atılır. Ayrıca 1940’lardan beri sibernetikte, makinelerin çevreleriyle özerk bir şekilde etkileşime girebileceği ve geri bildirim mekanizmaları aracılığıyla bundan öğrenebileceği fikri üzerinde durulmaktadır. 1957’de bilişsel bilim adamı Frank Rosenblatt, ilk işlevsel yapay sinir ağı olan Perceptron adlı bir sibernetik makine tasarlar. Rosenblatt’ın yapay bilişe aşağıdan yukarıya yaklaşımı, YZ araştırmalarında ilk başta pek tutmaz. Sembolik YZ’nin yukarıdan aşağıya yaklaşımı yapay öğrenmenin atılımlarına kadar geçerli YZ paradigması olur. Yukarıdan aşağı YZ sistemleri, insan bilişsel performansını simüle edebilen, önceden belirlenmiş bir dizi talimata göre formüle edilmektedir. Fakat 2000’li yıllara doğru bir yandan bilgisayarlar işte ve evde insanların yaşamına daha çok girerken diğer yandan veri kaynakları da artmaya başlar. Kullanıcılar tarafından üretilen geniş hacimli verilerin ticari amaçlar için kullanılma potansiyelinin farkına varılmasıyla algoritmaların platform dönemi başlar.

1998’de Larry Page ve Sergey Brin’in geliştirdiği PageRank algoritması, arama sonuçlarının veri analizine dayalı listelenmesi yoluyla web’e yeni düzen getirir. Web artık yalnızca bir belge deposu olarak değil, ayrıca bir sosyal sistem olarak ele alınır. Bilgisayar bilimciler, sosyal ağı otomatik olarak işleyen, ölçen ve sınıflandıran algoritmalar geliştirirler. Milyonlarca tüketici tarafından gerçek zamanlı olarak üretilen verilerin çıkarılması ve büyük veri tabanlarında düzenlenmesi mümkün hale geldikçe, internet tabanlı yeni gözetim biçimleri ortaya çıkar. Tüketici isteklerini tahmin etmeyi ve satın alma seçimlerine yardımcı olmayı amaçlayan kişiselleştirilmiş öneriler işletmelere müşterilerini “sonsuza kadar” tutmayı vaat etmektedir. Google, Amazon ve ardından YouTube, Facebook ve Twitter ekonomi ve toplumun verileştirmesi ve algoritmik düzenlenmesi yönünde önemli adımlardır. Platformlaştırma, muazzam miktarda veri sağladığından, yapay öğrenme araştırmalarının kritik bir bileşenidir. Daha hızlı ve daha yüksek performanslı bilgisayarların geliştirilmesiyle birlikte, “büyük” ve nispeten ucuz verilere erişim, 2010’larda “derin öğrenme”nin önünü açar.

Airoldi (2022) algoritmaların sosyolojisinde kapsamında ele aldığı algoritmalar işte bu platform dönemi algoritmalarıdır. Yapay sinir ağları kullanılarak oluşturulan gelişmiş YZ modelleri artık sohbet robotlarında, sürücüsüz arabalarda ve öneri sistemlerinde kullanılıyor ve örüntü tanıma, makine çevirisi veya görüntü oluşturma gibi alanların son zamanlarda genişlemesine olanak sağlıyor. Platform dönemindeki algoritmalar, dört başı mamur teknolojiler olarak dünyaya gelmiyorlar. Kısmen bir bebek gibi (verileştirilmiş) deneyimlerden öğreniyorlar. Dünyaya atıldıklarında diğer sosyal ajanlar gibi toplumu şekillendiriyor ve onun tarafından şekillendiriliyorlar.

Bu bağlamda, koddaki kültürün iki temel kaynağı var. Birincisi, yapay öğrenme sistemini tasarlayanlar ve geliştirenler. İkincisi, yapay öğrenme sistemlerinin eğitildiği veriler.

Tasarımcı ve bilgisayar programcılarına rehberlik eden mantık, her türden algoritmik sistemde kodlanmış ilk kültür türünü temsil eder. Sistemin genetik kodu gibi bir işleve sahip. Makinelerin nasıl düşüneceğini ve hareket edeceğini belirliyor ve kısıtlıyor. Airoldi (2022), doğrudan kodun yaratıcılarından türetilen bu kültürü deux ex machina’dan (*) esinlenerek makinedeki tanrı olarak adlandırıyor. Makinedeki tanrı, algoritmanın modelinde ve uygulamasında ve performansını iyileştirmeyi amaçlayan mühendislik sonrası müdahalelerde sahneye çıkıyor. Algoritmik sistemlerin arkasındaki tasarım amaçları; eğitim veri setlerinin, değişkenlerin, istatistiksel tekniklerin, performans ölçütlerinin seçimi makinedeki tanrının kararlarına göre şekilleniyor.

Algoritma tasarlayan insanların açıkça dünya nüfusunun rastgele bir örneği olmadığını da göz ardı etmemek gerekiyor. Makineleri yapan insanlar ağırlıkla beyaz erkeklerden oluşuyor. AI Now Enstitüsü’nün raporuna göre YZ profesörlerinin yüzde 80’i, Facebook’taki YZ araştırma personelinin yüzde 85’i ve Google’dakinin yüzde 90’ı erkek. Ayrıca teknoloji sektöründe çalışan kişilerin eğitimleri, sosyal geçmişleri, ilgi alanları, rol modelleri ve yaşam tarzları da birbirine yakın. Bu da ister istemez sınırlılığa neden oluyor.

Ancak makinedeki tanrıyı bilmek algoritmadaki kültürü anlayabilmek için yeterli değil. Nitekim algoritmaların platform döneminde kodun işlevi de değişmiş durumda. Kod, daha önce yazılımı düzenleyen önceden yapılandırılmış bir mimariyken platform döneminde gerçek dünyayla dinamik bir ilişki içinde, bir dizi uyarlanabilir, üretken kurala dönüştü. Yapay öğrenme sistemlerinin kültürel eğilimlerinin oluşumunda yaratıcıları dışındaki dijital topluluklardan elde edilen veriler belirleyici duruma geldi.

“Çöp girer, çöp çıkar” sözü bilgisayar bilimciler ve ve mühendisleri tarafından kusurlu istatistiksel modellerin ve girdi verilerinin belirli bireylere veya birey gruplarına karşı adil olmayan bir şekilde ayrımcılığa neden olabilecek, güvenilmez sonuçlar üreteceğini anlatmak için kullanılır. Böyle durumlarda algoritmanın yanlı olduğu belirtilir. Pandemide Britanya’da olan da buydu. Söz konusu algoritma, daha yoksul geçmişe sahip öğrencilere daha düşük notlar vermekle suçlandı ve bir grup akademisyen tarafından imzalanan bir mektupta, model ‘etik dışı’ ve ‘zararlı’ olarak ele alındı.

Bir algoritma, tüm tarafsızlık iddialarına karşı nasıl ırkçı, cinsiyetçi olabilir veya bir sınıfın üyelerini kayırabilir sorusunu tartışırken bunun söz konusu sistemin içine nasıl kodlandığını incelemek gerekir. Algoritmanın yanlı uygulamaları, makinedeki tanrıdan, yani sistemin gelişimine katkıda bulunanların kodlanmış seçimlerinden ve niyetlerinden kaynaklanabilir. Herkes gibi makine yaratıcıları da hata yapar ve dünyaya belirli bir sosyal geçmişin ve profesyonel ortamın kültürel merceklerinden bakar. Bu nedenle, belirli hesaplama hedeflerinin peşinden gitmenin veya belirli parametreleri ve değişkenleri seçmenin sonuçlarını genellikle görmezden gelirler veya hafife alırlar. Britanya’da öğretmenlerin verdiği notlar, okulların geçmiş performansına dayalı bir algoritma ile yeniden düzenlendi. Ama algoritma, istatistiksel olarak özel okulları destekleme eğiliminde olduğundan (tanrılar öyle kodladığından) eğitim eşitsizliğinin yeniden üretilmesine katkıda bulundu.

Ancak algoritmaların tasarım özellikleri, yanlılığın kaynaklarından biri olsa da çoğu zaman düzeltilmesi en kolay olanıdır. Bir yapay öğrenme sistemi ırkçı, cinsiyetçi hale geldiğinde veya bir sınıfın üyelerini kayırdığında genellikle “veri yanlılığı” olarak adlandırılan başka bir yanlılık kategorisi devreye girer. Örneğin, Microsoft’un sohbet robotu Tay’ı ırkçı bir Nazi’ye dönüştüren onu geliştirenler değil, Twitter kullanıcılarıydı. Tay, Twitter kullanıcılarıyla etkileşiminin sonucunda “Hitler haklıydı.” tweeti atacak düzeye geldi.

Airoldi (2022) bu gibi olayları ‘çöp girer, çöp çıkarla’ ifade etmektense “toplum girer, toplum çıkar” ile ifade etmenin sosyolojik olarak daha doğru bir tanım olacağını savunuyor. Veri yanlılığını üreten ‘çöp’ün, makine tarafından okunabilen dijital izlere dönüşen asimetrik sosyal ilişkiler, kültür ve uygulamalar demeti olan toplumdan başka bir şey olmadığını vurguluyor.

Fakat bu gibi sorunları basitçe yanlılığa neden olan verileri düzelterek çözmek o kadar kolay değil. Neyin çöp ya da adil olduğuna kim karar verecek? Veri yanlılıklarını tarafsız biçimde düzeltmek olanaklı mı? Algoritmaların ve veri kümelerinin yansızlaştırmak için yapılan teknik girişimler, daha fazla zarar verici olabilir. Tasarımcıların ve mühendislerin “kötü verileri”, “kötü algoritmaları” veya yerelleştirilmiş ön yargıları yalıtma çabaları, geniş sosyal ve sistemik sorunları ele alma yetenekleri açısından sınırlı olduğundan daha büyük sorunlara da yol açabiliyor.

Airoldi (2022) yanlılığın buz dağının görünen kısmı olduğunu sosyologların ise onun su altında kalan kısmına bakması gerektiğini düşünüyor. Neyin çöp ya da adil olduğuna karar vermenin sosyoloğun işi olmadığını belirtiyor. Bir makine verili insan eylemlerinden öğrendiği sürece, sadece ayrımcı ön yargıları değil, aynı zamanda eğilim ve yatkınlıklardan oluşan ve makine habitusu olarak kodlanmış daha geniş bir kültürel bilgiyi de kavrayacaktır. Sosyolojinin sadece cinayetleri ve ön yargıları incelememesi gibi makine habitusunun bilimsel bir anlam taşıması için zararlı olması gerekmiyor. Tam tersine, bir sohbet robotunun böcekler yerine çiçekleri tercih etmesi kadar masum, bir Amazon bot satıcısının yetişkin bezlerine olan düşkünlüğü kadar tuhaf ya da Twitter’ın trol filtreleme algoritması kadar güven verici derecede liberal olabilir.

Algoritmik ön yargıyı izlemeyi ve otomatik sistemleri daha etik ve hesap verebilir hale getirmeyi amaçlayan multidisipliner araştırma elbette önemli. Ama algoritma sosyolojisi için önemli olan dijital cihazlarımız aracılığıyla karşılaştığımız algoritmalarda ne tür bir kültürün yaşadığı ya da söz konusu sistemlerin nasıl sosyalleştiği. Bu bağlamda Airoldi (2022), insan ve makine sosyalleşmesi arasındaki benzerliklere işaret ediyor.

Sosyalleşme, kişinin bir toplumun üyesi olma, onun yapısını ve kültürünü içselleştirme süreci. Bir makine habitusu üreten makine sosyalleştirme süreçlerinin, insanların sosyalleşmesinden kökten farklı olacağı apaçık. Bilincin hesaplamalı eşdeğeri olmadan öznellik, aidiyet veya insan benzeri anlayış olamaz. Ama makinelerin yapay genel zekâ aşamasına gelmeden de toplumun yapısını ve kültürünü içselleştirme süreci içinde olabileceğine (daha doğrusu olduğuna) dikkat etmek gerekiyor.

Airoldi (2022) sosyalleşmeyi birincil ve ikincil olmak üzere ikiye ayırıyor. Birincil sosyalleşme, bireyin çocuklukta yaşadığı ilk sosyalleşme. İkincil sosyalleşme ise zaten sosyalleşmiş bir bireyi toplumunun nesnel dünyasının yeni sektörlerine sokan sonraki herhangi bir süreç. Birincil sosyalleşme, çocuğa ikincil sosyalleşmenin üzerine inşa ettiği dil, pratik bilgi, algısal şemalar, sağduyu gibi genel, uzun süreli ve kolayca yer değiştirebilen eğilimleri sağlar. Duygular, çocuk ve kendini özdeşleştirdiği yetişkin bakıcılar arasındaki yoğun duygusal ilişkiler tarafından aktarıldığı için bu süreçte önemli bir rol oynar. İkincil sosyalleşmenin genelliği, kalıcılığı ve duygusal olarak yüklülüğü daha azdır. Bir mesleğe, siyasi bir aidiyete veya dini bir inanca bağlılık gibi alana özgü bilgi ve sosyal rollerin içselleştirilmesinden oluşur.

Sosyalleşebilirlik, yalnızca platform dönemindeki yapay öğrenme sistemleri için geçerlidir. Trafik ışıklarını, bulaşık makinelerini, video oyunlarını, yazıcıları veya kelime işlemcileri gibi sistemlerin büyük çoğunluğu sosyalleşme yeteneğine sahip olmadıkları gibi buna gerek de yoktur. Bu gibi durumlarda kültür, koda yalnızca makinedeki tanrı olarak dahil olur. Diğer yandan insan ve yapay öğrenme sistemlerinin sosyalleşme süreçleri bir çok açıdan birbirine benziyor.

Birincisi, hem insanlar hem de makineler için birincil sosyalleşme süreci, failin içsel yatkınlıkları üzerine kuruludur. İnsanlar için bunlar biyolojik ve genetik özellikler olabilir. Yapay öğrenme algoritmaları söz konusu olduğunda, bu yatkınlıklar makineyi geliştirenlerin tasarım seçimlerinden kaynaklanırlar. Örneğin, yapay sinir ağlarının hiper-parametrelerine makinenin tanrıları tarafından önceden karar verilir.

İkincisi, birincil sosyalleşme, deneyimleri kontrol eden, filtreleyen ve aracılık eden “önemli diğerleri” tarafından denetlenir. Çocuklar için bunlar normalde ebeveynler veya ailenin diğer üyeleridir. Yapay öğrenme sistemlerinde ise makine yaratıcıları, hedefleri dikte ederek, eğitim verilerini seçerek, A/B testi deneyleri yaparak ve nihayetinde eğitim aşamasının başarılı ve eksiksiz olarak kabul edilip edilemeyeceğine karar vererek benzer bir rol üstlenirler.

Üçüncüsü, hem insanlar hem makineler için birincil sosyalleşme süreci sırasında edinilen dünya görüşleri, mümkün olduğunca genel ve aktarılabilir olmayı amaçlar. Örneğin, bir çocuk birincil sosyalleşmede edindiği bilgi ve kültüre aşırı uyumlu hale gelip yeni durum ve kültürlere taşımakta zorlanabilir. Aynı şekilde yapay öğrenme sistemleri de veri setine aşırı uyma (overfitting) nedeniyle öğrendiklerini yeni durumlara aktaramayabilir.

Dördüncüsü, birincil sosyalleşme sırasında habitus olarak kristalleşen eğilimlerin kalıcılığıdır. Bu nedenle, din değiştirmelerle örneklenen “yeniden sosyalleşme”ler insanlar arasında nadirdir. Fakat makinelerin öz farkındalığı olmadığından, yeniden toplumsallaştırılacak veya dönüştürülecek bir özleri de yoktur: sosyolojik bir bakış açısından, yeniden toplumsallaştırılmış bir algoritma, basitçe öncekinden farklı bir yapay toplumsal fail haline gelir.

Beşincisi, hem insanlar hem de denetimli makine öğrenimi sistemleri için, ikincil sosyalleşme alana özgü ve açık uçludur. İkincil makine sosyalleştirmesi, bir algoritmanın depolanmış eğilimlerinin yerel veri bağlamlarına aşamalı olarak uyarlanması olarak tanımlanabilir. Yapay öğrenme sisteminin eğitim sırasında kristalleşen makine habitusunun geri bildirimlere dayalı güncellenmesi, bir dereceye kadar yetişkin bireylerin yaşadığı sosyalleşmeye sürecine benzer. Geri besleme döngüleri, öz yinelemeli karakterleri göz önünde bulundurularak genellikle daireler olarak temsil edilirler. Bir daire çizgisi başladığı yerde biter, ancak kullanıcı-makine etkileşimlerinde durum böyle değildir. Aslında, geri besleme döngüsünün her yinelemesi, ya önceden var olan eğilimlerin bir takviyesini ya da bunların kademeli dönüşümünü üreterek sistemi ve bileşenlerini değiştirir. Elbette burada makinelerin insanlar gibi çok yönlü olmadığına dikkat etmek gerekir. İnsanlar çok yönlüdür; üniversitede, iş yerinde, kilisede, barda vb çevrelerde ikincil sosyalleşmeleri deneyimlerler. Yapay öğrenme sistemlerinin ise genellikle “tek” bir işleri ve dolayısıyla ikincil sosyalleşme kanalları vardır.

Kültürdeki Makine

Makinelerin hem toplumsal ilişkilerin yeniden şekillenmesinde hem de toplumsal düzenin sürdürülmesinde rol aldığı bir tekno-sosyal dünyada yaşıyoruz. Yapay öğrenme sistemleri, sosyal olarak yapılandırılmış veri bağlamlarından öğrenerek sosyal ajanlar haline geliyorlar. Birincil ve ikincil makine sosyalleştirme süreçleri aracılığıyla, veriye dayalı eğilimler makine habituslarında kristalleşmiş eğilimler olarak kodlanıyorlar.

Algoritmalar yalnızca donanıma, enerji arzına, iş gücüne, yatırımlara ve doğal kaynaklara bağlı olan platformların, bilgi ağlarının, yazılımların ve veri altyapılarının sosyo teknik toplulukları içinde var oluyorlar. Ticari ve siyasi çıkarlar düşünülerek inşa edilen bu teknolojik ortam, bir dereceye kadar makinelerin yaşam alanlarını temsil ediyor. Sosyalleşmiş makineler hissedebilen özneler olmasalar da dili, pazarları, beğeniyi, kamuoyunu ve toplumsal ilişkileri manipüle ederek, toplumsalı biçimlendirmede etkili oluyorlar. Airoldi (2022), makinelerin kültürü nasıl biçimlendirdiğini algoritma sosyolojisinin konularından biri olarak değerlendiriyor ve insan-makine etkileşimini iki kriter bağlamında tartışıyor: Bilgi asimetrisi (BA) ve kültürel uyum (KU).

Yardımcı etkileşim, kullanıcı-makine ilişkilerinde BA’nın yüksek ve KU’nun güçlü olduğu durumlarda ortaya çıkıyor. Bu etkileşim türünde insanlar, uygulanan hesaplama mantığını bilmezler veya fark etmezler; ama çıktılardan hoşnut olurlar. Teknoloji şirketlerinin en sevdiği senaryodur. Yapay öğrenme sistemi, insanların beklentilerine uyumlu içeriği seçerek onlara yardımcı olurlar. Kullanıcı (bilmeden) makineye olumlu bir davranışsal geri bildirim göndererek karşılık (örneğin, önerilen bir videoyu izleyerek veya beğenerek) verir böylece sistem tarafından görüntülenen kodlanmış kültürel eğilimleri yeni bir yinelemede güçlendirir. Bu şekilde etkileşimden sonra, yardım edilen kullanıcıların önceden var olan görüşlerinin, sosyal ilişkilerinin, alışkanlıklarının ve habituslarının pekiştirildiğini görmeleri olasıdır.

Dürten etkileşim, yüksek BA ve zayıf KU ortamında gelişir. Kullanıcının kendi eğilimlerine veya iradesine karşı görünmez bir hesaplama otoritesi tarafından yönlendirilen dengesiz bir etkileşim ortamı vardır. Makine, eğitim verilerinin yetersizliği veya bilinçli tasarım tercihleri nedeniyle, etkileşimde bulunduğu kişilerin istek ve çıkarlarından farklı hareket eder. Kullanıcıları alışılmış davranışlarından veya düşünce biçimlerinden saptırabilmek için dürter. Mikro hedefli reklamlar, bildirimler ve öneriler yoluyla onları dürterek kontrol etmeye çalışır. Özellikle, dürtülen kişiler tüketicilerden ziyade algoritmik kontrole maruz kalan işçiler (Uber sürücüleri, Amazon çalışanları vb) olduğunda etkilidir.

İşbirlikçi etkileşim, düşük BA ve güçlü KU ile karakterize edilen bir etkileşimsel durumudur ve çok yaygın değildir. Algoritmik işleyişin farkında olan bir kullanıcı ile kullanıcının veri odaklı eğilimlerine yanıt veren başarılı bir şekilde sosyalleşmiş bir makine arasındaki yatay bir bilgi dolaşımı anlamına gelir. Diğer iki etkileşim biçiminde olduğu gibi sistemin gözetlemesine gerek yoktur. Kişiler verimli bir işleyişi için gerekli geri bildirimleri vermede gönüllü davranırlar.

Yanlış anlama üzerine kurulu etkileşim ise düşük BA ve zayıf KU’da gelişir. Bir şeyin beklendiği gibi çalışmadığını anlamak için, işleyişin farkında olmak ve en azından bu konuda biraz belirsiz bilgiye sahip olmak gerekir. Böyle durumlar, kişilerin sistemle ilişkisini kısmen ya da tamamen kesmesi, bunun olanaklı olmadığı durumlarda direnişe geçmesi olasıdır.

Algoritma Sosyolojisine Doğru…

Yapay öğrenme sistemleri sosyal dünyayı, doğal veya tarafsız olmaktan çok, içine daldıkları tekno-sosyal alanların pratiklerinin, sosyal mücadelelerinin ve mantıklarının kültürel ürünleri olan sınıflandırma şemalarına göre görüyor ve düzenliyor. Airoldi (2021), bazı yönlerden bizim de bir algoritma olduğumuzu, sanki programlanmış gibi, tek yönlü sokakları ve girilmez işaretleri ile bulduğumuz dünyanın düzenine otomatik olarak uyum sağladığımızı yazıyor. Yapay öğrenme sistemleri gibi deneyimlerden öğreniyor ve düzenlilikleri pratik olarak yeniden üretiyoruz. Bourdieu’nun insan habitusu gibi makine habitusu da hem “yapılandıran bir yapı” hem de “yapılandırılmış bir yapı” olarak karşımıza çıkıyor. Airoldi (2022), algoritmaları Pierre Bourdieu’nun gözleriyle görmeyi deniyor. Algoritmalar giderek daha çok toplumun bir parçası oldukça onları görece özerk sistemler veya eyleyenler olarak gören farklı yaklaşımlar da artacaktır…

Airoldi (2022), algoritma sosyolojisi hakkındaki araştırmaların dört yönde ilerleyebileceğini düşünüyor. Birincisi, makineleri yaratanları izlemek… Kodda, makinedeki tanrı olarak, hangi kültür yazılıdır? Algoritma, hangi tasarım amaçlarını içermektedir? Makine sosyalleşmesinin temelinde ne tür veri bağlamları vardır ve makine habitusu olarak kodlanmıştır? İkincisi, kullanıcıları izlemek… Kullanıcılar algoritmik sistemleri nasıl tahayyül ediyor, anlıyor ve kullanıyorlar? Onlarla nasıl etkileşime giriyor ve çıktılarına yanıt veriyorlar? Hesaplama otoritesinin kullanıcıların uygulamaları ve eğilimlerinin gelişimi üzerindeki etkileri nelerdir? Üçüncüsü, ortamı izlemek… Belirli dijital altyapılar sosyal alanları nasıl kapsıyor? Hangi olanaklara sahipler? İçlerinde hangi sosyal ajanlar yaşıyor? Tekno-sosyal alan zaman içinde nasıl gelişiyor ve değişiyor? Dördüncüsü algoritmaları izlemek… Makine habitusunun eğilimleri nelerdir? Pratikte nasıl hayata geçiyorlar ve nasıl değişiyorlar? Tekno-sosyal alanlar ve etkileşim halindeki failler için ne gibi sonuçlar doğuruyorlar?

Algoritmaların yapısı ve işleyişini daha iyi anladıkça toplumun bilişim sistemlerinin tasarımlarını şekillendirmesi ve beklenmedik yan etkilerini aşabilmesi kolaylaşacak…

(*) Bir kurgu veya dramada beklenmedik, yapay veya imkânsız bir karakter, alet veya olayın senaryo akışı içinde beklenmedik bir yerde aniden ortaya çıkması, örneğin anlatıcının bir anda uyanıp her şeyin rüya olduğunu anlaması veya aniden ortaya çıkan bir meleğin sorunları çözmesi için kullanılan Latince kalıp. Birebir çevirisi “makineden tanrı” olup Antik Yunan tiyatrosunda bir tanrıyı canlandıran karakterin bir vinç (machina) yardımıyla yukarıdan indirilmesi anlamında kullanılmaktaydı. Airoldi (2022) ise bir kelime oyunuyla bunu makinedeki tanrı (deus in machina) olarak kullanıyor.

Kaynaklar

Airoldi, M. (2022). Machine habitus: Toward a sociology of algorithms. John Wiley & Sons.

Rahwan, I., Cebrian, M., Obradovich, N., Bongard, J., Bonnefon, J. F., Breazeal, C., … & Wellman, M. (2019). Machine behaviour. Nature, 568(7753), 477-486.

İlk Yorumu Siz Yapın

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir