"Enter"a basıp içeriğe geçin

Derin Sahte: Gördüğüne İnanma

İnternetin yaygınlaşmasıyla beraber ana akım medyada yer almayan gelişmelerden haberdar olmaya başladık. Daha önce ekonomik ve/veya siyasi nedenlerle sınırlı bir kitleye ulaşabilen alternatif medya artık yeni okuyucular edinebilirdi. Basılı gazete ve dergiler, web’den de haber ve makale yayımlamaya başladılar. Ayrıca sadece web’de var olan haber siteleri de vardı. Ardından web2 rüzgarı esmeye başladı. Okuyucular, web sitelerinde yer alan içerikler hakkındaki görüşlerini yazabiliyor ve beğendiği içerikleri arkadaşlarıyla paylaşabiliyordu. Sosyal medya ve akıllı telefonlarla okuyucuların üreticiliği daha da arttı. Kimi zaman alternatif medya sitelerine bile gerek kalmadı. Doğru zamanda, doğru yerde olan sıradan insanlar, akıllı telefonlarıyla çektikleri fotoğrafları kolayca sosyal ağlarda paylaşıp yaymaya başladılar. Paylaşılan bu içerikler yalnız sosyal medyada kalmadı. Alternatif medya ve hatta ana akım medya, söz konusu paylaşımlardan yararlanmaya başladı.

Kuşkusuz tüm bunlar, sıradan yurttaşı yaşamının öznesi haline getirme potansiyeli taşıyan gelişmelerdi. Artık tanıklık ettiği gerçekliği başkalarıyla paylaşabilirdi. Ama sonra büyü bozuldu. Teknolojinin demokrasi için bir tehdit olup olmadığını tartışmaya başladık. Trump’ın iktidara geldiği 2016 seçimleri sonrasında Twitter, Facebook ve Google sorumluluklarının farkındaydı. Dolayısıyla bundan sonraki seçim sürecinde daha şeffaf hareket edeceklerini açıkladılar. Buna karşın, Kasım 2018’de yayımlanan “Teknoloji, Demokrasi İçin Bir Tehdit mi?” başlıklı yazıda, demokrasiyi derin sahte (DS – deep fake) adı verilen daha büyük bir tehlikenin beklediğini yazmıştım:

“[Derin sahte ile hazırlanan] videoların üretilmesi daha kolay hale geldiğinde ve sayıları arttığında insan neye inanıp inanamayacağını kestiremeyecek. Videolardaki sahteliği tespit için bazı yollar öneriliyor. Örneğin, düzensiz göz kırpma videonun derin öğrenmeyle üretildiğinin delili olabilir ama bunu fark edebilmek o kadar kolay değil ve videoları uzun uzun incelemek için çoğu zaman yeterli vakit olmayacaktır. Bu nedenle, teknolojiyle gelen bu soruna karşı sahteliği tespit edebilecek yeni teknolojiler üzerinde çalışılıyor.

Derin sahte teknolojisi gelişip yaygınlaştığında (kullanımı kolaylaştığında) gerçek yalanın, yalan gerçeğin yerine geçecek. ABD sahte videoları daha çok seçim ve yalan haberler bağlamında tartışıyor. Ancak yalan görüntü ve sesin insanları galeyana getirmek için de kullanılabileceğini göz ardı etmemek gerekiyor.”

Aradan geçen zamanda, DS teknolojisi daha da mükemmelleşti ve potansiyel tehlikeleri arttı.

Derin Sahte Nedir?

Derin sahte, tamamen yapay zekâ (YZ) tarafından üretilen veya değiştirilen bir sentetik medya kategorisidir. Derin sahteler; videolardan, resimlerden ve seslerden veya üçünün bir kombinasyonundan oluşabilir. Derin sahtedeki derin kelimesi, derin öğrenmeden gelir. Algoritmaların insan müdahalesi olmadan öğrenebildiği ve deneyim kazanabildiği yapay öğrenmenin bir alt kategorisi olan derin öğrenme, karar vermek için büyük miktarda veriyi işleyen yapay sinir ağlarını kullanır.

Yazının başında da belirttiğim gibi doğru zamanda, doğru yerde bulunan kişilerin akıllı telefonlarıyla belirli bir anı kayıt altına alması ve bunu sosyal ağlarda paylaşması çığır açıcıydı. Çünkü gördüklerimize ve kulaklarımızla duyduklarımıza inanmaya daha eğilimliyiz. Kendi gözlerimizle görmediğimiz ve görüntüyle desteklenmeyen enformasyona karşı daha mesafeli duruyoruz. Bunun yanında Photoshop ve benzeri yazılımlar nedeniyle fotoğrafa daha temkinli yaklaşıyoruz. Video ve sesin gerçek ve bozulmaz olduğunu düşünme eğiliminde olduğumuzdan çekilen videoları anın tartışmasız tanığı olarak değerlendiriyoruz. Çünkü bir videonun değiştirilmesi işini uzmanların veya ulusal bir hükümetler ve Hollywood stüdyoları gibi muazzam kaynaklara sahip olanların alanı olarak görüyoruz.

İnsanlar aslında Photoshop’tan çok daha önce görsel içeriklere müdahale etmeye başladılar. 19. yüzyılda fotoğrafın icadıyla birlikte insan, ilk kez insan dışı bir ortamda “gerçeği yakalama” yeteneği kazanmıştı. Ama bu teknolojinin ilk günlerinde bile fotoğrafla yakalanan gerçekliğe müdahale girişimleri vardı. ABD’nin ilk fotoğrafçılarından olan Mathew Brady (https://en.wikipedia.org/wiki/Mathew_Brady), Abraham Lincoln’un çok sayıda fotoğrafını çekmişti. Ancak Abraham Lincoln suikasta kurban gittiğinde Başkan daha önce kahramanlara yaraşır bir biçimde tasvir edilmediğinden bir portre sanatçısı yaratıcı bir çözüme başvurdu. Thomas Hicks, Lincoln’ün kafasını içeren bir baskıyı John C. Calhoun’un vücuduna yerleştirdi. Calhoun’un görüntüsü 1852’de Oymacı A.H. Ritchie tarafından yaratılmıştı. Calhoun (bkz Resim-1) Demokrat, Lincoln (bkz Resim-2) ise Cumhuriyetçiydi. Bu nedenle orijinalde masadaki kağıtlarda “mutlak anayasa”, “serbest ticaret” ve “eyaletlerin egemenliği” kelimeleri yer alıyordu. Ancak Calhoun’un yerine Lincoln’un kafası konduğunda masadaki kağıtlar da değişti. Artık kağıtlarda “anayasa”, “birlik” ve “özgürlük ilanı” yazıyordu. Yüzyıl boyunca kimse durumu fark etmedi. Foto muhabiri Stefan Lorant, Lincoln’un hayatını resimlerle anlatan Lincoln, A Picture Story of His Life (ilk olarak 1957’de yayınlandı, ardından 1969’da revize edildi) kitabı için Lincoln’ün fotoğraflarını derlerken tuhaf bir şey keşfetti: Hicks baskısında, Lincoln’ün beni yüzünün yanlış tarafındaydı. Biraz araştırma yaptıktan sonra, baskıdaki Lincoln’ün yüzünün Brady’nin beş dolarlık banknot fotoğrafındaki yüzüyle tam olarak eşleştiğini fark etti. Fakat baskıda Lincoln’ün yüzü ters çevrildiğinden Lincoln’ün beni karşı tarafta görünüyordu. Hicks, resmi Calhoun’un vücuduna yerleştirirken bu tutarsızlığı fark edememişti. Aslında Photoshop daha ortalarda olmasa da Brady sık sık görüntüleri değiştiriyordu. Örneğin General William Sherman’ın ekibinin bir grup fotoğrafına katılamayan bir üyeyi ekleyerek fotoğrafı yeniden düzenlemişti (https://www.atlasobscura.com/articles/abraham-lincoln-photos-edited).

Photoshop ve daha sonra onu takip eden yazılımlarla beraber fotoğraflar üzerinde oynamak kolaylaştı ve yaygınlaştı. Akıllı telefonlara indirilen ve fotoğrafları kolayca değiştirebilmeyi sağlayan yazılımlar sayesinde artık fotoğraflara karşı daha temkinli yaklaşıyoruz. Ancak video ve ses kayıtlarının kendi gözlerimizle gördüklerimizi veya kendi kulaklarımızla duyduklarımızı kaydettiklerine inanma eğilimindeyiz. Bu da karşı karşıya olduğumuz sorunu daha da ciddileştiriyor. Şimdi insanlar YZ sayesinde sentetik (veya sahte) medya üretebilen araçlara kolayca erişebiliyorlar. Ancak Hollywood stüdyolarının yapabileceğine inanılan düzenlemeleri kendi başlarına ve kısa bir süre içinde yapabiliyorlar. Örneğin Martin Scorsese’nin 2019’da çıkan Netflix filmi The Irishman‘da kullanılan gençleştirme teknolojisiyle aktörler kendi gençliklerini de oynayabilmişti. Bunun için büyük paralar harcansa da sonuç yeterince tatmin edici olmamıştı. Filmin çıkışından sadece üç ay sonra “iFake” adıyla anılan anonim bir YouTuber, filmdeki yaşlanma sorununu çözmek için özgür bir yapay zeka yazılımı kullandı. YouTuber’ın bütçesi sıfırdı ve (muhtemelen) tek başına çalışıyordu. Scorsese’nin prodüksiyonun hazırlanmasına 2015’te başlanmıştı. Scorsese’un milyonlarca doları ve güçlü bir teknoloji ekibi vardı. Fakat Aralık 2019’da, özgür yazılım kullanan yalnız bir YouTuber’a yenildi. YouTuber, sıfırdan çalışmaya başlamamış başlangıç noktası olarak Scorsese’nin çalışmasından yararlanmış ve Youtube’da yayımlanan videoda (https://www.esquire.com/entertainment/movies/a30432647/deepfake-youtube-video-fixes-the-irishman-de-aging/) görüldüğü gibi daha başarılı bir sonuç elde etmişti (Shick ,2020).

iFake, Irishman’le YZ’yi internetin karanlık, az bilinen köşelerinden çekip çıkarmıştı. 2 Kasım 2017’de, anonim bir kullanıcı tarafından Reddit’de r/deepfakes adında bir forum açılmış ve bir anonim kullanıcı foruma Hollywood aktrislerinin YZ ile hazırlanmış sahte porno videolarını yüklemeye başlamıştı. Bu videoları, derin öğrenme algoritmaları konusunda bilgi sahibi olan herkesin bir araya getirebileceği açık kaynak kodlu yazılımları kullanarak kendisi oluşturmuştu. Sahte (veya sızan) ünlü pornolarının dolaşımı internette yaygındı. Ama Motherboard’da 11 Aralık 2017’de yayımlanan yazısında bu yeni forma dikkat çeken ve derin sahte teknolojisi hakkında okuyucuları uyaran Samantha Cole, bu videoların Angelina Jolie’nin çıplak bir porno yıldızının vücuduna photoshoplannasından daha öte bir adım olduğunu savunuyordu. Cole, ilk derin sahte videolarını yükleyen bu kişinin kimliğini gizleyerek yaptığı açıklamada ne bir programcı ne de bir uzman, sadece yapay öğrenmeye meraklı biri olduğunu söylediğini aktarıyordu. Fakat her ne olursa olsun açık kaynaklı YZ araçlarını kullanan bu kişi porno yıldızlarının yüzlerini ünlülerin yüzleri ile değiştirmenin yollarını ortaya koyarak cini şişeden çıkarmıştı (age).

Reddit kullanıcısı, Google görsel aramayı, stok fotoğrafları ve YouTube’u kullanarak hedefindeki aktrisin veri setini oluşturuyor ve daha sonra da bu veri setini, aktrisin yüzünü mevcut bir porno filmle kare kare “değiştirmeyi” öğrenecek bir YZ algoritmasını eğitmek için kullanıyordu. Kullandığı tekniği Reddit’de paylaşmasıyla beraber çeşitli aktrisleri hedef alan derin sahte videoların ardı arkası kesilmedi. Reddit yönetimi, gönülsüz porno içerdiği gerekçesiyle kısa bir süre sonra forumu kapattı. Ama DS yapmak için kullanılan kodlar çoktan web’de paylaşılmıştı! Başkalarının kendi DS’lerini yapmalarına yardımcı olan yeni araçlar ve ücretsiz yazılımlar çok geçmeden internette dolanmaya başladı. Gizemli programcılar tarafından yönetilen DeepFaceLab ve Face Swap gibi platformlar kendi sentetik ortamlarını oluşturmak isteyenlere yardımcı oldular ve yukarıda bahsettiğim iFake gibi Youtuber’ların ortaya çıkışı için uygun bir ortam yarattılar. İlk ürünler masum ve genellikle gerçekten komikti. Ancak daha sonra DS, kişilerin rızası dışında porno yaratmanın bir aracı olarak yaygınlaştı. İlk kurbanlar ünlü aktrislerdi. Daha sonra sıradan bireyler de sahte pornografi kampanyalarının kurbanı oldular.

İlk DS videoları, yüz takasları, “otomatik kodlayıcılar” olarak bilinen bir derin öğrenme sistemi sınıfına dayanıyordu. Daha sonra Ian Goodfellow’un buluşu, GAN (Generative adversarial networks – Çekişmeli Üretici Ağ) gibi daha ileri yöntemler kullanılmaya başlandı. GAN, iki derin öğrenme ağından oluşuyordu. Birincisi yeni bilgi üretmeye, diğeri de bunu tespit etmeye çalışır. İki ağın mücadelesinde yeni bilgi üreten ağ onu tespit etmeye çalışan ağı yenebilmek için gittikçe daha iyi olmayı öğrenir. Üretici, bunu tespit etmeye çalışan ağı yenene kadar mücadele devam eder. GAN’lar şu anda sentetik medya oluşturmanın en heyecan verici yolu olsa da gelecekte araştırmacılar bunu daha da iyi yapmanın yollarını geliştireceklerdir.

DS’ler günümüzde farklı biçimlerde karşımıza çıkabiliyor.

Yüz takası: Yüz takasında videodaki bir yüz otomatik olarak başka bir yüzle değiştirilir. Örneğin ünlü aktörler, hiç oynamadıkları film kliplerine eklenebilir. Bunun için her zaman ileri teknoloji de gerekmez. Bugün yüz değiştirmeyi destekleyen mobil uygulamalar bile var. Fakat mobil uygulamalarda bulunan yüz değiştirme, genellikle kullanıcının fotoğrafları ile film sahnelerindeki oyuncuların yüzleri arasında geçiş yapma gibi basit kullanım durumlarıyla sınırlı. Daha gelişmiş yüz değiştirme için daha fazla model eğitimi, kod ve daha güçlü donanım gerekir.

Dudak senkronizasyonu: Videodaki bir kişinin ağız bölgesi, bir ses kaydıyla eşleştirilir. Bu teknikle, Jordan Peele, Barak Obama yerine konuşabilir ve onun hiçbir zaman söylemediği sözleri söyleyebilir (https://ars.electronica.art/center/en/obama-deep-fake/).

Kukla Ustası: Bir “aktörün” hareketlerinin kaydedilmesi ve bu görüntünün başka bir özne ile üst üste bindirilmesiyle tamamen yeni bir video oluşturulur (https://www.youtube.com/watch?v=pAoTmlqMqjg).

Ses tabanlı DS: Gerçek bir kişinin sesini alan ve daha önce hiç söylemedikleri bir şeyi söylettiren ses dosyalarıdır. (https://thehackernews.com/2023/03/from-disinformation-to-deep-fakes-how.html)

DS’nin Yararlı Kullanımı

Reddit’teki doğumundan sonra DS pornoları kendi bağımsız ekosistemlerini oluşturdular. Kuruluşların ve bireylerin kendilerini YZ tarafından üretilen sentetik medyanın kötü amaçlı kullanımından korumalarına yardımcı olmak için kurulmuş ilk özel şirketlerden biri olan DeepTrace’e göre DS oluşturma için gerekli araçların kolayca erişilebilir olması uzman olmayanların alana girişini oldukça kolaylaştırmıştı. Eylül 2019’da web’deki DS videolarının sayısı 15000 civarındaydı ve DeepTrace’e göre bunların %96’sı videoda gösterilen kişilerin rızası olmadan oluşturulan videolardı (Schick, 2020).

Yine de DS teknolojisi toplumsal açıdan yararlı alanlarda kullanılabilir. DS, standart grafik ve multimedya ortamlarını aşacak biçimde öğretmenlerin ilgi çekici dersler sunmasına yardımcı olabilir. Örneğin geçmişte yaşamış insanları günümüze getirerek dersler daha canlı ve katılımcı yapılabilir. Bir canlandırma filmi veya mitolojik bir kişinin ses ve videosu derslere ilgiyi artırabilir.

DS, pahalı görsel efekt teknolojilerini daha erişilebilir hale getirebilir. Mizahı veya hicvi gerçekçi bir şekilde hayata geçirmek için güçlü bir teknik sağlayabilir. Birkaç bireysel yapımcı ve YouTuber’ın yaptığı gibi eğlence dünyasında yeni kapılar açabilir.

İnsan hakları savunucuları ve muhabirler, otokratik ve sert ülkelerde anonim kalmak için sentetik medyayı kullanabilir. Yurttaş gazeteciler ve aktivistler, geleneksel veya sosyal ağ sitelerinde suçları ihbar ederken seslerini ve özelliklerini maskeleyebilirler.

Derin sahte, ülkeler arasındaki dil engellerini kaldırabilir. Örneğin David Beckham’ın Sıtma Ölmeli Girişimi kapsamında hazırlanan bir açıklamayı dokuz farklı dilde okuduğu reklam filmi DS teknolojisi yardımıyla hazırlanmıştır.

DS teknolojisi sağlıkta kullanılabilir. Örneğin, bir görüntüdeki tümörleri veya diğer anormallikleri tanımak için bir dijital sistemi eğitmeye çalışmak, bu tür anormalliklerin iyi huylu örneklerle karşılaştırıldığında nispeten nadir olması nedeniyle zordur. Yapay görüntüler oluşturarak ve bir GAN’a az miktarda orijinal görüntü dahil ederek, sistemin doğruluğu artırılabilir.

Tüm bunlar, DS teknolojisinin olanaklarıdır. Yukarıdaki olumlu örnekler çoğaltılabilir ve bu teknolojiyi insanlık için kullanmanın yollarını arayan bilim insanları olabilir. Ancak günümüz dünyasında DS, kontrolsüz ve kullanımı yasalarla düzenlenmemiş bir güç. Enformasyon, toplumsal ilişkilerde önemli bir rol oynuyor ve insanların genellikle edindikleri enformasyonun gerçekliğini kontrol edecek zamanları ve enerjileri olmuyor. Videoların diğer enformasyon kaynaklarına göre daha güvenilir olduğu varsayılıyor ve bunlar aracılığıyla edindikleri enformasyon, kişiler, kurumlar ve liderler hakkında verdikleri kararlarda etkili oluyor. DS teknolojisi, görsel iletişimin bu gücünü kullanarak insanların duygu ve algılarını etkileyerek bir tür görsel dezenformasyon yaratıyor. Etkili bir liderin ırkçılık veya terörizmden bahsettiği iyi zamanlanmış sahte bir video kısa sürede ortalığı altüst edebilir.

DS’nin Etkisini Artıran Etkenler

Belirli etkenler DS’ler için daha elverişli bir ortam oluşturur (Sareen, 2023). Birincisi, davranışsal ekonomi ve ağ teorisindeki birkaç kişinin aynı kararı sıralı bir şekilde verdiği enformasyon çağlayanı olgusudur. Enformasyon çağlayanı iki adımlı bir süreçtir. Birinci adımda bireyler ikili bir senaryoyla karşı karşıya gelirler. İkinci adım ise benzer senaryolardaki diğer bireylerin eylemlerinin ve bunların sonuçlarının gözlemlenmesi gibi dış etkenlerin bu kararı etkileyebilmesiyle gerçekleşir. Bu iki adımlı senaryo, beş parçaya ayrılabilir (https://en.wikipedia.org/wiki/Information_cascade):

1. Belirli bir siyasi konumu desteklemek, yeni bir teknolojiyi benimsemek, yeni bir giyim tarzı giymek, yeni bir restoranda yemek yemek gibi verilmesi gereken bir karar vardır.

2. Bir hareketi benimsemek ya da reddetmek, bir adaya oy vermek ya da vermemek gibi sınırlı bir eylem alanı vardır.

3. İnsanlar sırayla karar verir ve her kişi daha önce harekete geçenlerin yaptığı seçimleri gözlemleyebilir.

4. Her insan, kararlarını yönlendirmeye yardımcı olan kendi bilgileri dışında bazı bilgilere sahiptir.

5. Kişi, diğer insanların bildiği dış bilgileri doğrudan gözlemleyemez, ancak onların yaptıklarından bu bilgiler hakkında çıkarımlarda bulunabilir.

Özellikle insanların kendi bilgilerine tam güvenmedikleri durumlarda enformasyon çağlayanı daha etkili olur. İnsanlar edindikleri enformasyonu başkalarına iletirler. Sosyal medya platformları, enformasyon çağlayanı için ideal ortamlardır. Ayrıca aldatmacalar ve sahte söylentiler insanlara gerçek hikayelerden on kat daha hızlı ulaşabilir. Luo ve Ma’nın (2018) araştırmasının gösterdiği gibi yanlış, tüm enformasyon kategorilerinde gerçekten çok daha uzağa ve daha hızlı bir şekilde yayılır. DS’ler insanların porno, dedikodu ve şiddet gibi doğal eğilimlerinden yararlanır. Kötü niyetle oluşturulmuş bir DS çok kısa sürede küresel bir kitleye ulaşabilir.

İkincisi, DS’nin dolaşımının zamanlamasıdır. Hassas zamanlarda ortaya çıkan bir DS daha etkili olabilir. Hemen doğrulanamayan bazı gerçekleri (!) gösteren herhangi bir sahte video hassas bir zamanda kullanıcılar arasında dağıtıldığında alıcıların zihinlerinde ani ve muazzam bir etki bırakır ve gösterilen gerçekle ilgili fikirlerini değiştirmelerine neden olabilir. Tehlikeli zaman, DS’lerin yaratılmasının arkasındaki temel fikirdir. Her halükarda belirli anlar çok önemli veya hassastır. Sahte videoların dağıtımı o kadar dar bir zamanda yapılmalıdır ki video çürütüldüğünde geri dönülmez bir etkiyi çoktan yapmış olsun. Örneğin herhangi bir seçimde oy verme gününden hemen önce, bir adayın (gerçekte yapmadığı) yolsuzluğu gösteren bir sahte video seçmenler arasında dağıtıldığında seçmenlerin kafasını karıştırabilir ve seçim sonuçlarını etkileyebilir.

Üçüncüsü, dolaşımın hızıdır. Artık sosyal platformlar aracılığıyla enformasyon hızla yayılıyor. Sahte bir videonun yayılma hızı etkisini de artıracaktır.

Dördüncüsü, dijital okuryazarlık düzeyidir. Bazı araştırmacılara göre dijital okuryazarlığın nispeten düşük olduğu gelişmekte olan ülkeler, DS videolarının neden olduğu dezenformasyon tuzağına düşmeye karşı daha savunmasızdır. Bu ülkelerdeki sosyal medya kullanıcıları, gerçeği sahteden ayırt etme teknikleri konusunda çok bilgili değillerdir ve yapay olanı gerçek olarak kabul etme olasılıkları daha yüksektir. Örneğin, Myanmar’da 2014’e kadar hükümet denetimindeki telekom operatörü tarafından satılan SIM kartları kimsenin satın alamayacağı kadar pahalıydı. Sektör açıldıktan sonra 1 dolara satılan SIM kartlar ve ucuz akıllı telefonlarla sosyal medya kullanımı da arttı. Çünkü Facebook neredeyse tüm cihazlarda yüklüydü. Böylece Myanmar’da Arakanlı Müslümanlara karşıt hareketin lideri Wirathu, önceden el ilanlarıyla kışkırtıcı mesajlarını yayımlarken Facebook sayesinde sahte görüntüleri yüz kat daha fazla insana ulaştırmaya başladı. Facebook’ta 2018’de “Müslümanların camilere silah stokladığı”na dair yalan bilgilerin hızla yayılması zaten gergin olan bölgede toplumsal şiddeti körükledi. Sareen (2023) derin sahtelerin de benzer şekilde otoriter rejimler veya aşırılık yanlısı gruplar tarafından toplumsal bölünmeye başvurmak için bir boyun eğdirme aracı olarak kullanılabileceğini belirtiyor.

DS ve Tehditler

Bir derin sahte yaratıcısının amacı dezenformasyon yaymak ve insanları buna inandırmaktır. DS teknolojisi ile hazırlanmış özel efektler ve animasyonlar film endüstrisine geniş olanaklar sunuyor. Ancak, bu teknolojinin kolay erişilebilir olmasıyla kötü niyetli kullanımı da artmaya ve çeşitlenmeye başladı.

Videolara duyulan güven ve yaratıcılarının kimliklerini gizleyebilmesi DS’yi başkalarını istismar ve sabote etmek için güçlü bir araç haline getiriyor. DS; iş, spor, siyaset, aşk veya özel yaşamın herhangi bir alanında bireylere darbe vurmanın aracı haline gelebiliyor. DS çoğunlukla içerik oluşturucunun cinsel veya finansal tatmini için tasarlanmış porno videolar biçiminde karşımıza çıkıyor. İlk DS videolarında ünlü aktrisler varken şimdi DS, politik saldırı veya kişisel rekabet nedeniyle kullanılabiliyor. Örneğin, Hindu milliyetçi siyasetindeki yolsuzluğa karşı yazdığı makaleye misilleme olarak Rana Ayyub adlı gazetecinin 2 dakikalık DS videosu hazırlanmış. Bir Twitch yayıncısı da kadın rakiplerini DS videolarla zor durumda bırakmaya çalışmış (https://newlinesmag.com/spotlight/twitch-deepfake-porn-scandal-is-a-sign-of-things-to-come/).

Ayrıca mağdurlar, DS’lerin vereceği ilk hasardan korunmak için şantaja boyun eğebiliyor. DS videolarının zamanlamasına, durumuna ve dolaşımına bağlı olarak etkileri son derece yıkıcı olabiliyor. DS’ler eşsiz bir fırsatın kaybedilmesine, arkadaşların desteğinin kaybına, terfinin suya düşmesine, romantik bir ilişkinin son bulmasına, iş fırsatının kaçmasına ve daha fazlasına yol açabilir. Bazen DS’nin sahteliği ortaya çıkarılsa da insanlar çoktan telafisi güç zararlara uğramış olabiliyor. Schick (2020), yasal yetersizlikler nedeniyle Hollywood’un en çok kazanan oyuncularından Scarlett Johansson’un bile DS videolarına karşı elinden bir şey gelmediğini belirtiyor.

DS’ler piyasaları yanlış yönlendirerek finansal kazançlar sağlamak için de kullanılabilir. Whatsapp’ta 2019 yılında Metro Bank’ın likiditesinin bittiğini belirten sahte bir mesajın dolaşıma girmesinin ardından insanlar tüm paralarını ve mücevherlerini almak için Metro Bank’a akın etti. Bunun sonucunda bankanın hisseleri %9 oranında düştü. Suçlular DS’leri kullanarak borsada işlem gören bir şirketin CEO’sunu taklit edebilir, şirkete zarar verecek açıklamalar yaparak hisse fiyatının düşmesine neden olabilir ya da bir çalışanın patronunun kendisine emir verdiğini düşünmesini sağlayarak aldattıkları kişiye büyük miktarda para transfer ettirebilirler (van der Sloot ve Wagensveld, 2022).

Uluslararası ve ulusal siyasette ise riskler çok daha fazla. Herhangi bir kötü niyetli kişi, yerel halkı provoke etmek ve sivil kayıplara yol açmak için DS’ler aracılığıyla sahte içerik yayarak bir bölgenin istikrarsızlığından yararlanabilir. Chesney ve Citron (2019), aşağıdaki senaryolarda neler olabileceğini düşünmemizi ister:

İsrail başbakanını bir meslektaşıyla özel bir konuşma yaparken gösteren ve Tahran’da bir dizi siyasi suikast düzenleme planını açığa vuran bir video hayal edin. Ya da Irak’ın belirli bir eyaletinde Sünni liderleri öldürmek için gizli bir operasyon planlayan İranlı yetkililerin ses kaydı. Ya da Afganistan’da bir Amerikan generalin Kuran yakarken gösterildiği bir video. Şiddete çoktan hazır bir dünyada, bu tür kayıtlar güçlü bir kışkırtma potansiyeline sahiptir. Şimdi bu kayıtların, dizüstü bilgisayarı ve internet erişimi olan hemen hemen herkesin erişebileceği araçlar kullanılarak hazırlanabileceğini ve ortaya çıkan sahte kayıtların fazlasıyla inandırıcı olduğunu ve gerçeklerinden ayırt edilmesinin imkansız olduğunu hayal edin.

Chesney ve Citron (2019), dijital teknolojideki gelişmelerin yakında bu kabusu gerçeğe dönüştürebileceğini ve sosyal medyanın siyasette yıkıcı etkileri olan DS’lerin yayılması için verimli bir zemin sağlayacağını savunuyor.

İnsanların duygularını ve algılarını etkileyen DS, zamanında kontrol altına alınmadığında toplum üzerinde yıkıcı sonuçlara neden olabilir. Örneğin, 2018’de, Hindistan sosyal medyasında, Bangalore’da oynarken bir çocuğun iki adam tarafından kaçırıldığını gösteren bir video viral oldu. Videoda gösterilen bu sözde adam kaçırma olayı gerçek olmasa da yaygın bir kafa karışıklığına, paniğe, şiddet eylemlerine ve en az dokuz masum insanın ölümüne neden oldu. Sareen (2023) aşağıdaki video senaryolarını ve bunların etkilerini düşünmemizi istiyor:

  • Rüşvet almak, zina yapmak, nefret söylemi içeren konuşmalar yapmak gibi yasa dışı faaliyetlerde bulunan kamu görevlilerinin yer aldığı sahte videolar
  • Toplumun ünlü veya tanınmış kişiliklerini hedef alan değiştirilmiş pornografik videolar
  • Politikacıların ve diğer devlet görevlilerinin gerçekte bulunmadıkları yerlerde bulunduğunu, kötü şeyler söylediğini ve yaptığını içeren sahte videolar (Örneğin, casuslarla veya suçlularla işbirliği yaptığına dair videolar)
  • Masum insanları öldüren askerlerin sahte videoları (insanlar arasındaki şiddeti artırabilir ve en kötü durumda sivil itaatsizliğe yol açabilir.)
  • Belirli bir sınıfa veya ırka karşı vahşeti sergileyen sahte videolar (Var olan sosyal bölünmeleri artırabilir ve eylemleri ve hatta şiddeti tetikleyebilir.)
  • Gençleri, yazılı kelimelerin tek başına başaramayacağı bir eylemliliğe sürükleyen sahte videolar

DS teknolojisi, benzeri görülmemiş miktarda dezenformasyon yaratabilir ve seçmenin demokrasiye olan inancını azaltabilir. DS’ler demokrasinin temeline saldırır ve doğası gereği antidemokratik olarak adlandırılabilir. Yanıltıcı fotoğraflar genellikle siyasi rakiplerin itibarını zedelemek için kullanılsa da DS’ler fotoğraflardan daha kuvvetli bir yanılsamaya neden olurlar. İyi finanse edilen bir iktidar propaganda ajansının, siyasi engeller oluşturan bireyler için küçük düşürücü DS’ler yaratması zor değildir. Bu tür sahtekarlıklar, muhalefet hareketlerine zarar verebilir.

Özellikle seçimler DS riskinin yüksek olduğu dönemleridir ve gerçekçi bir DS, seçmenlerin kararlarını etkileyebilir; özellikle kararsız seçmenleri. İyi zamanlanmış bir DS, adayların kişisel yaşamları ve politika konumlarıyla ilgili kurgu ve belirsizlikleri seçim sürecine sokarak yerel veya merkezi seçimlere müdahale edebilir. Bu tür müdahaleler istikrarsızlaştırma potansiyeline sahiptir. Özellikle belirli bir zaman dilimine göre programlanan (yani dolaşım için yeterli zamana sahip ama DS’yi etkili bir şekilde çürütecek zamanın olmadığı) DS’ler daha etkilidir. Ayrıca haber medyalarına güvenle sosyal veya elektronik medyada dolaşan dezenformasyona kanma olasılığı ters orantılıdır. DS’ler siyasi mikro hedefleme teknikleriyle birleştirildiğinde daha etkili olabilirler. DS’nin seçimleri etkileyebileceği birkaç senaryo şunlar olabilir:

  • Bir DS, yanlış oylama bilgileri veren bir haber spikeri kimliğine bürünerek seçim gününde kafa karışıklığı yaratır.
  • Kötü niyetli siyasi aktörler DS’leri, muhataplarının sahte iddialarını ve sahte anlatılarını beslemek için kanıt uydurmak amacıyla kullanabilir.
  • Bir adayı taklit eden ve adayın belirli kelimeleri söylediğini gösteren bir DS, adayın itibarsızlaştırabilir.
  • DS’ler, siyasi bölünmeleri ve hatta şiddeti kışkırtmak için tartışmalı veya nefret dolu ifadelerden oluşan yeni kurgusal içerikler oluşturmada kullanışlı olabilir.
  • Bir DS videosu, adayları güvensizlik yaratabilecek zorlu durumlarda veya insanlarla birlikte gösterir.
  • Tersine, adaylar veya çeşitli siyasi aktörler/paydaşlar, gerçeklere dayalı bilgilerin itibarlarına zarar verebileceğinden şüphe duyarak, buna DS adını verebilirler.

DS’ye Karşı Ne Yapılabilir?

Teknik Önlemler

Bir yandan DS teknolojileri hızla ilerliyor diğer yandan onu algılayabilen teknolojiler geliştiriliyor. Teknolojinin kötü ve iyi aktörleri arasında bir yarış var. Başlangıçta işler kolaydı. Örneğin, oynanmış bir videoda cildin çok pürüzsüz veya çok kırışık görünmesi, gözlerin ve kaşların yakınındaki gölgelerin genellikle uyumsuz olması, cildin yaşlılığı ile saç ve gözlerin yaşlılığı arasındaki uyumsuzluk, doğal olmayan göz hareketleri, garip yüz ifadeleri vb ipuçları oluyordu. Gelişmiş DS’lerde bu sorun artık aşılmış olsa da DS’ler görüntü veya ses manipülasyonunu ortaya çıkarabilecek izler içerebiliyor.

DS’yi tespit etmek için geliştirilen farklı teknolojiler var. Microsoft tarafından 2020’de piyasaya sürülen Video Kimlik Doğrulama Aracı, DS’nin birleştirme sınırını ve hafife alınmış gri tonlamalı ögeleri algılıyor ve manipülasyon için bir güven puanı veriyor. Binghamton Üniversitesi ve Intel tarafından geliştirilen araç ise DS videoların bıraktığı benzersiz doğal ve üretken gürültü sinyallerini arıyor ve sahte videolarda %97,29 doğruluk elde edebileceğini iddia ediyor. Stanford Üniversitesi ve Kaliforniya Üniversitesi’nden araştırmacılar, DS videolarındaki uzamsal olarak küçük ve zamansal olarak yerelleştirilmiş manipülasyonları bile tespit etmek için ağız şeklinin dinamikleri olan visemleri fonemle, yani konuşulan kelimelerle eşleştiren başka bir araç geliştirmiş. Tekrarlayan evrişimsel modeller (Recurrent Convolutional Models) ise etki alanları arasındaki görüntü akışlarından zamansal bilgileri kullanıyor ve videolardaki yüz manipülasyonunu tespit ediyor. Video akışlarında DS, Face2Face ve FaceSwap ile oynanmış yüzleri tespit edebiliyor (Sareen, 2023).

Yukarıda belirtilen teknikler, insanların fark etmesi zor olan belirli tutarsızlıkları tespit etmeye çalışıyor. DS medya üretenlerle bunları tespit etmeye çalışan araçlar arasında bir yarış var. Medya doğrulama araçları ise gerçeklik sorununu farklı bir düzlemde ele alıyor. Medya oluşturucunun kökenini ve içeriğini doğruluyor. Bu işlem, bir filigran gözetim günlüğü kaydı zinciri veya diğer mevcut araçlar kullanılarak gerçekleştirilebiliyor. FotoForensics, Jeffrey’s Exif Viewer, TinEye vb. gibi çeşitli araçlar, herhangi bir medyanın kurcalanıp kurcalanmadığının anlaşılmasını sağlıyor (age).

Bir diğer yöntem de medyanın kaynak bilgilerini medyaya ekleyerek güvenilir içeriğin tanımlanmasını kolaylaştırmak. Kaynak bilgileri, medyanın kaynağından başlayarak diğer yayın sitelerine kadar medyaya ilişkin temel bilgilerden oluşuyor. Bugün internette bulunan medya kaynak çözümlerinden bazıları şunlar (age):

YouTube Content ID: YouTube, içeriklerini tanımlamaları ve yönetmeleri için telif hakkı sahiplerine bir içerik kimliği sağlar. Bu kimlik, herhangi bir telif hakkı ihlali olup olmadığını kontrol etmek için YouTube tarafından izlenir.

Adobe Content Authenticity Initiative: Adobe, yaratıcılara yazarlık talebinde bulunma seçeneği sunar ve tüketicilere içeriğin güvenilirliğini değerlendirme yetkisi verir.

Microsoft Aether Media Provenance (AMP): Medya için blok zinciri gibi gözetim zinciri defterleri tarafından da kaydedilebilen ve imzalanabilen imzalı bildirimler oluşturulabilmesine olanak tanır. AMP bildirimi, tarayıcıdaki görsel ögeler aracılığıyla kullanıcıya iletilir.

FuJo Provenance: Dijital içerik doğrulanması için aracısız bir çözüm geliştirmek amacıyla 2018 yılında PROVENANCE adlı bir AB projesi başlatıldı. PROVENANCE doğrulama katmanının, medya içeriğindeki herhangi bir değişikliği tespit etmek için semantik yükseltme, görüntü adli bilimi ve kademeli analiz gibi gelişmiş araçları kullanması amaçlanıyor.

Yasal Önlemler

DS’lerin oluşturulmasında kullanılan teknikler nedeniyle bir kedi-fare oyunu var ve dolayısıyla DS’yi tespit etmeyi hedefleyen teknik çözümler kısa vadeli oluyor. DS teknolojisinin zaman içinde daha ucuz, daha hızlı ve daha iyi hale gelmesi bekleniyor. DS tespit programlarının DS’leri filtrelemesini daha da zorlaştıracak. Şu anda sahte videoların yalnızca %65’i tespit edilebiliyor ve çoğu zaman, manipülasyonun düzeyi ve içeriğin nasıl değiştirildiği tam olarak gösteremiyor. Uzmanlar bu oranın zamanla yükselmek yerine daha da düşeceğini savunuyorlar (van der Sloot ve Wagensveld, 2022).

Bir diğer öngörü de dört ya da beş yıl içinde, tüm çevrimiçi içeriğin %90’ından fazlasının tamamen ya da kısmen üzerinde oynanmış olacağı hakkında. Bunlar genellikle nispeten bir kişinin cilt tonlarını eşitleyen görüntülü görüşme hizmetleri veya sıkıştırma nedeniyle sesin bir kısmının kaybedilmesi gibi küçük oynamalar olacak. Fakat bu küçük manipülasyonlar bile bir şüphelinin kimliğinin belirlenmesinde ya da bir dermatologla çevrimiçi tıbbi konsültasyonda büyük önem taşıyabilir (age).

DS’nin tespitinde teknolojinin kullanımı hakkında başka sorunlar da var. Bu teknolojiler genellikle bir gerçeklik yüzdesi veriyor. Örneğin, bu videonun gerçek ya da oynanmış olma ihtimalini değerlendirirken kesin yanıtlar yerine bu videonun orijinal olma ihtimali %73, diyor. Ancak bu yanıt beraberinde yeni soru(n)lar getiriyor: Bir gazete ya da yargıç kaynağın güvenilirliğini değerlendirirken hangi doğruluk yüzdesini geçerli sayacak? Kamu yayıncıları için özel yayıncılardan farklı eşikler olmalı mı? Farklı mahkemeler için farklı standartlar olmalı mı? İnternet sağlayıcıları sahte olduğu düşünülen içerikleri otomatik olarak engelleyebilir mi, engelleyecekse doğruluk yüzdesi kaç olursa engelleyecek, orijinal olma ihtimali yüzde kaç olduğunda personel içeriği manuel olarak kontrol etmeli? Ayrıca bu tespit programlarının her zaman neyin nasıl değiştirildiğini gösteremeyeceği ve medyadaki değişikliğin paylaşıldığı bağlamla ilgili olup olmadığını değerlendiremeyeceği de unutulmamalıdır. Örneğin, açıkça sarhoş olduğu görülen bir politikacının internette paylaşılan bir videosuna müdahale edilmiş olabilir, ancak açıkça sarhoş görünmesinin manipülasyondan mı kaynaklandığı yoksa manipülasyonun videodaki bir detayla mı ilgili olduğu önemlidir. Gerçek fotoğraf, video veya ses olmadığında neyin, nasıl ve neden değiştirildiğini değerlendirmek herkes için zor olacaktır (age).

Kısacası DS şu an için kontrolsüz bir güçtür. DS kullanımını ve DS ile oluşturulmuş videoların dağıtımını yasaklamak önümüzdeki çözümlerden biridir. Fakat teknolojilerin ve ürünlerin yasaklanması hassas bir konudur. Her teknolojinin olumlu kullanım alanları vardır; bir teknolojinin sık kullanımı sayesinde daha önce öngörülemeyen olasılıklar keşfedilebilir. Hem vatandaşlar hem de şirketler genellikle teknolojilere engelsiz bir biçimde erişmek isterler. Bu durum DS için de farklı olmayacaktır. Daha ılımlı bir çözüm DS teknolojilerinin ve uygulamalarının sadece tüketici pazarında yasaklanması olabilir. Bu, kuruluşların ve profesyonellerin bu teknolojiyi perakende sektörü, eğlence endüstrisi ve görüntülü arama uygulamaları gibi belirli amaçlar için kullanmalarına izin verecek, ancak milyonlarca vatandaşın DS yaratma olasılığını engelleyecektir. Böylece dijital ortamın sentetik hale gelmesi önlenecek ve DS kullanımını bir film, bir iş görüşmesi ve bir web mağazası gibi belirli kontrollü ortamlarla sınırlayacaktır. İnsanların komik sahte videolar üretememeleri bir kayıp olsa da söz konusu toplumsal çıkarlar göz önüne alındığında, bu küçük bir kayıp olarak değerlendirilebilir. Böyle bir yasak için ek bir neden de mevcut: tüm DS’lerin %96’sı, dolandırıcılık, kimlik hırsızlığı ve iftira gibi diğer kötü niyetli kullanımların yanı sıra açıkça yasa dışı olan rıza dışı porno ile ilgili. Teknolojiler tarafsız değildir, belirli uygulamaları mümkün kılarlar ve DS teknolojisi gibi bir araç neredeyse kesin olarak hukuka aykırı uygulamalar için kullanılacaksa ona erişimi sınırlamak meşru bir neden olarak kabul edilebilir (age).

DS’yi yasaklamak yerine ya da bu seçeneğe ek olarak ex ante (uygulama öncesi) bir test getirilebilir. Böyle bir test vatandaşlara dayatılabilir, örneğin bir DS üretirken Veri Koruma Etki Değerlendirmesi yapmaları istenebilir. Yüksek bir riskin söz konusu olduğu tespit edildiğinde ulusal Veri Koruma Otoritesini bilgilendirmeleri gerekecek ve bu otorite de DS’nin yayımlanıp yayınlanamayacağını değerlendirmek zorunda kalacaktır. Bu teorik bir çözüm olsa da, hem vatandaşların böyle bir yükümlülüğe gerçekten uyma ihtimalinin düşük olması hem de DS’yi değerlendirecek kurumların gerekli kaynaklara sahip olmaması nedeniyle bunun pratikte işe yarayıp yaramayacağı şüphelidir. Alternatif olarak, internet aracılarına hizmetlerini DS’ye karşı izleme ve zararlı DS’leri engelleme yükümlülüğü getirilebilir. Örneğin, internet aracılarının DS tespit tekniklerini kullanmaları ve sahte olması muhtemel içerikleri engellemeleri sağlanabilir. Bu tüm sahte içeriği filtrelemeyecek olsa da DS sayısını önemli ölçüde azaltabilir (age).

Ayrıca yasal süreçler için özel kurallar düşünülebilir. Özellikle ceza davalarında, bir kişinin kovuşturmaya uğraması bile kişisel ve profesyonel hayatı üzerinde önemli bir etkiye sahip olabilir. Buna ek olarak, medeni hukuk davalarında delil olarak DS videolar üretilmesine de rastlanmaktadır. Çoğu hukuk sisteminde delillerin mahkemeye sunulmadan önce gerçekliğini kontrol edecek bir sistem bulunmamaktadır. Yargıçlar, aksi bir durum olmadığı sürece, video gibi kanıtların çoğunlukla gerçek olduğunu varsayarlar. Bu da delillerin orijinal olmadığını ya da uydurulduğunu iddia etmenin ve muhtemelen kanıtlamanın çoğunlukla davalıya ya da medeni hukuk davalarında karşı tarafa düştüğü anlamına gelir. Kanıtların gerçek olmadığını ya da gerçek olmayabileceğini göstermek için gerekli teknik uzmanlığı elde etmek maliyetli olabilir ve bu da zayıf tarafların daha da güçsüzleşmesine yol açabilir. Bu nedenle, delillerin mahkemeye ancak bir kurum tarafından gerçekliği değerlendirildikten sonra sunulabileceğine dair bir kural getirilebilir. Bunun ekonomik maliyetleri olacaktır, ancak önemli kişisel ve toplumsal zararları önleyecektir.

***

Yukarıda belirtilen karşı önlemler, toplumsal farkındalık ile tamamlandığında daha etkili olacaktır. DS’ler, kutuplaşmanın olduğu yerlerde daha yaygın oldukları için teknolojik olmaktan çok toplumsal bir sorundur. Kurumların güvenlik politikalarını yeniden gözden geçirmeleri ve DS’lerin sorun yaratabileceği olası durumlara birden fazla kontrol noktası eklemeleri gerekmektedir. Kriz yönetimi tatbikatlarının yapılması başarılı DS girişimlerini sınırlandırabilir. Ünlüler ya da büyük şirketlerin üst düzey yöneticileri gibi en fazla risk altında olan kişiler, olası DS saldırılarına karşı özel önlemler almalıdır.

Ama DS’lerin neden olduğu dezenformasyona karşı en başta medya okuryazarlığını artırmak gerekir. Farkındalığı yüksek bir kamuoyu, DS’lerin yarattığı zorluklarla mücadele etmenin öncüllerinden biridir. Medya tüketicileri olarak yurttaşların deşifre etme, anlama ve sahte ile gerçeği birbirinden ayırma becerilerini geliştirmeleri; gördüklerine körü körüne inanmadan önce durup düşünmeleri gerekir. En önemlisi de gördüğümüz videoların ya da dinlediğimiz konuşmaların sahte olabileceğini aklımızdan çıkarmamaktır.

Kaynaklar

Chesney, R., & Citron, D. (2019). Deepfakes and the new disinformation war: The coming age of post-truth geopolitics. Foreign Aff., 98, 147.

Luo, Y., & Ma, J. (2018). The influence of positive news on rumor spreading in social networks with scale-free characteristics. International Journal of Modern Physics C, 29(09), 1850078.

Rastogi, S., Mishra, A. K., & Gaur, L. (2023). Detection of DeepFakes Using Local Features and Convolutional Neural Network. In DeepFakes (pp. 73-89). CRC Press.

Sareen, M. (2023). Threats and Challenges by DeepFake Technology. In DeepFakes (pp. 99-113). CRC Press.

Schick, N. (2020). Deep fakes and the infocalypse: What you urgently need to know. Hachette UK.

Van der Sloot, B., & Wagensveld, Y. (2022). Deepfakes: regulatory challenges for the synthetic society. Computer Law & Security Review, 46, 105716.

İlk Yorumu Siz Yapın

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir