2 Ağustos 1990 tarihinde Irak, Kuveyt’i işgal ederek burayı kendi eyaleti ilan etmişti. 1991’in başında ise ABD ve müttefiklerinin Irak’a saldırıları başlamıştı. Irak, ABD’nin bölgedeki müttefikleri İsrail ve Suudi Arabistan’a Scud füzeleri ve onun geliştirilmiş versiyonlarını atıyor, bu ülkeler de Patriot füzeleriyle kendilerini korumaya çalışıyordu. Bununla birlikte, Scud-Patriot mücadelesinin ötesinde, Sovyetler Birliği’nin çözülüşünden sonra tek kutuplu dünyada ABD, yüksek teknolojisiyle adeta bir güç gösterisi yapıyordu. Artık akıllı bombalar, gece görüş ve kızılötesi sistemler, radar, GPS ve uydu gibi modern askeri teknolojilerin yoğun olarak kullanılacağı yeni bir dönem başlıyordu.
ABD’nin Irak’a karşı kullandığı yeni savaş teknolojilerinin yanı sıra savaşın canlı olarak yayınlanması da kitle iletişimi açısından bir dönüm noktasıydı. Bu durum hem haberciliği hem de halkın savaşı algılama biçimini değiştirdi. Füzelerin uçuşlarını ve güdümlü füzelerin hedefe kilitlenmesini canlı olarak izliyorduk. Ayrıca başta Vietnam Savaşı olmak üzere geçmiş savaşlarda kontrolsüz basın özgürlüğünün toplumsal muhalefeti artırdığını deneyimleyen ABD, bu kez enformasyon akışı üzerinde sıkı bir kontrol uyguluyordu. Savaşın yarattığı yıkım kamuoyunun gözünden saklanıyor, savaş adeta bir video oyunu gibi sunuluyordu.
11 Eylül 2001’e kadar, küreselleşmenin avantajlarını kullanan ve tartışmasız en gelişmiş savaş teknolojilerine sahip olan bir ABD vardı. İşte tam da bu gücünün zirvesindeyken, 11 Eylül saldırılarıyla tüm dünya şoke oldu. Saldırganlar, eylemlerini yüksek teknolojili silahlar veya karmaşık sistemlerle değil, mevcut ve yaygın teknolojileri birer silaha dönüştürerek gerçekleştirmişlerdi. Ancak 11 Eylül sonrasındaki tartışmalar, özellikle veri analizini merkeze alarak, teknolojinin savaşlardaki rolünde yeni bir dönemi de beraberinde getiriyordu. Westphal’e (2008) göre, 11 Eylül’ün sinyalleri önceden verilmiş, veri dünyasında sıra dışı gelişmeler yaşanmış ama bunlar fark edilememişti. ABD’ye öğrenci vizesiyle girmiş birinin ticari havacılık kursu alması olağan bir durum değildi. Hele bu kişinin bazı bilinen teröristlerle dolaylı bağlantılarının olması yeterince kuşku uyandırıcıydı. Bill Clinton, 6 Kasım 2002’de yaptığı konuşmada, 11 Eylül saldırganlarının beşinin daha önceden FBI veritabanlarında kayıtlı olduğunu söylüyordu. Örneğin bu saldırganlardan biri sadece iki yıldır ABD’de olmasına rağmen 30 kredi kartına sahipti. Saldırganların elebaşı olarak görülen Muhammed Atta’nın ise 12 evi vardı. Clinton’a göre tüm bunlar, üzerinde ciddiyetle durulması gereken şüpheli verilerdi (Larose, 2005).
Aradan geçen 25 yıl, ABD’nin hem kendi sınırları içinde hem de küresel düzeyde kitlesel gözetimi artırdığı bir dönem oldu. ABD’nin Büyük Teknoloji şirketleri, küresel ölçekte faaliyet gösteren kapitalist aktörler olmalarına karşın, son tahlilde ABD’li şirketlerdir. Bu şirketler, ABD’nin savaş ve istihbarat kapasitesinin ayrılmaz bir parçası haline gelirken, ABD hükümetleri de uluslararası alanda kendi şirketlerinin önündeki engelleri kaldırmaya çalışıyor (ör. JD Vance’in, Avrupa Birliği’nin Elon Musk’ın X platformunu düzenleme girişimlerine karşı NATO desteğini tehdit olarak kullanması. https://www.independent.co.uk/news/world/americas/us-politics/jd-vance-elon-musk-x-twitter-donald-trump-b2614525.html). Dolayısıyla 2026’nın başından İran’ın dini lideri Ali Hamaney’in ölümüne kadar olan süreci değerlendirirken, ABD hükümetlerinin Büyük Teknoloji şirketleriyle en başından beri çok yakın ilişkiler içinde olduğunu atlamamak gerekiyor.
ABD Savaş Bakanlığının Yapay Zekâ Öncelikli Stratejisi
ABD Savaş Bakanlığının 9 Ocak 2026’da yayımladığı belgede, ulusal güvenlik alanında yapay zekâ destekli savaş ve yetenek geliştirme faaliyetlerinin önümüzdeki on yıl içinde askeri faaliyetlerin niteliğini yeniden tanımlayacağı belirtiliyor. Bu dönüşüm, Amerika’nın özel sektöründe ortaya çıkan ticari yapay zekâ yeniliklerinin hız kazandırdığı bir rekabet olarak tanımlanıyor.
ABD Savaş Bakanlığı aşağıdaki hedefleri belirtiyor:
• Bakanlık genelinde Amerika’nın önde gelen yapay zekâ modelleriyle deneysel çalışmaların teşvik edilmesi ve mevcut yaklaşımların yapay zekâ odaklı biçimde yeniden tasarlanmasının desteklenmesi;
• Eski bilgi teknolojileri ve savaş yöntemlerinden kalan, daha derin entegrasyonun önündeki bürokratik engellerin kararlılıkla tespit edilip ortadan kaldırılması;
• Yatırımların yapay zekâ hesaplama kapasitesi, model inovasyonu, girişimcilik dinamizmi, sermaye piyasaları ve başka hiçbir ordunun taklit edemeyeceği, yirmi yıllık askeri ve istihbarat operasyonlarından elde edilen savaşta kendini kanıtlamış operasyonel veriler gibi Amerika’nın temel asimetrik avantajlarına dayandırılması;
• Önde kalabilmek için gerekli olan yüksek uygulama temposunu ve odaklanmayı sağlayacak bir dizi öncü projenin hayata geçirilmesi.
Bu projeler aynı zamanda Bakanlık genelinde yapay zekâ entegrasyonunu hızlandırmak için gerekli temel yapay zekâ bileşenlerinin (altyapı, veri, modeller, politikalar ve insan kaynağı) hızla oluşturulmasını sağlayacak somut ve sonuç odaklı araçlar olarak tasarlanıyor. Belgede, üç başlık altında yer alan yedi projeye veriliyor.
Savaş
1. Swarm Forge: Yapay zekâ destekli yeteneklerle birlikte ve bunlara karşı savaşmanın yeni yollarını aşamalı olarak keşfetmek, test etmek ve ölçeklendirmek için tasarlanmış rekabetçi bir mekanizma.
2. Ajan Ağı: Sefer planlamasından öldürme zincirinin yürütülmesine kadar, yapay zekâ destekli savaş yönetimi ve karar desteği için yapay zekâ ajanlarının geliştirilmesi ve denemelerine olanak sağlanması.
3. Ender Platformu: Yapay zekâ destekli simülasyon kabiliyetlerini ve simülasyon geliştirme (sim-dev) ile simülasyon operasyonları (sim-ops) arasındaki geri besleme döngülerini hızlandırarak, yapay zekâ kullanan hasımlar karşısında üstünlüğün sürdürülmesi.
İstihbarat
4. Open Arsenal: İstihbarat döngüsünü yapay zekâ ile otomatikleştirerek sahadan gelen bilginin doğrudan ve anında bir vurucu güce veya savunma sistemine evrilmesini sağlayan bir teknoloji merkezi.
5. Project Grant: Caydırıcılık stratejilerini statik ve spekülatif bir yapıdan, aktif ve yorumlanabilir verilere dayalı dinamik baskı sistemlerine dönüştürülmesi.
Kurumsal
6. GenAI.mil: ABD’nin en gelişmiş yapay zekâ modellerini, en düşükten en yüksek seviyeye kadar tüm gizlilik derecelerindeki ağlar üzerinde 3 milyon sivil ve askeri personelin kullanımına sunulması.
7. Kurumsal Ajanlar: Kurumsal iş akışlarını dönüştürmek için hızlı ve güvenli yapay zekâ ajanı geliştirme ve dağıtımına yönelik kılavuzun oluşturulması.
9 Ocak 2026’da yayımlanan bu belge, yapay zekânın ABD savaş makinesine entegrasyonu konusundaki kararlılığın boyutlarını ortaya koyuyordu. Bu kararlılığın sonuçlarını fazla beklememize gerek kalmadan, ABD’nin İran saldırılarında gördük.
Trump Hükümeti ve Anthropic Arasında Artan Gerilim
ABD Savaş Bakanlığı’nın yayımladığı strateji belgesinden sonra ikinci önemli gelişme, Trump Hükümeti ile Anthropic arasındaki gerilimdi. Şubat 2026’nın sonunda, dünyanın önde gelen yapay zekâ şirketlerinden Anthropic, ABD ordusunun teknolojisine “tüm yasal amaçlar için sınırsız erişim” sağlamasını öngören bir Pentagon sözleşmesini imzalamayı reddetti. Şirketin CEO’su Dario Amodei, bu kararı gerekçelendirirken, yapay zekânın “tamamen otonom silahlar” ve “Amerikalıların kitlesel gözetimi” gibi amaçlarla kullanılmasına izin veremeyeceklerini açıkladı (https://www.bbc.com/news/articles/cvg3vlzzkqeo).
Bunun üzerine 24 Şubat’ta ABD Savunma Bakanı Pete Hegseth, Anthropic şirketinin yapay zekâ teknolojisinin askeri uygulamalarda kullanılmasına izin vermemesi halinde, bu şirketi kurumunun tedarik zincirinden çıkarmakla tehdit etti. Üç gün sonra da ABD Başkanı Donald Trump, tüm federal kurumlara Anthropic teknolojisinin kullanımının derhal durdurulması talimatını verdi. Bir anda Anthropic, ABD Savunma Bakanlığı tarafından tedarik güvenliği açısından riskli ilan edilmişti. Anthropic de karşı hamle yaparak biri California federal mahkemesi diğeri Washington federal temyiz mahkemesinde görülmek üzere iki ayrı dava açtı.
Trump Hükümeti ve Anthropic arasındaki gerilim devam ederken devreye OpenAI girdi. Yapay zekâ modellerinin bakanlığın ağına entegre edilmesi için Pentagon ile anlaşmaya vardı (https://www.cnbc.com/2026/02/27/openai-strikes-deal-with-pentagon-hours-after-rival-anthropic-was-blacklisted-by-trump.html). Başta ABD’de olmak üzere, çok sayıda kullanıcı OpenAI’nin fırsatçılığına tepki gösterdi ve ChatGPT’yi boykot etme çağrısında bulundu. ChatGPT’den Anthropic’in yapay zekâ modeli Claude’a geçiş yapmak için sosyal medyada çeşitli öneriler yayımlandı.
Elbette Anthropic’in CEO’su Dario Amodei bir aziz değildi. Gary Marcus’un yazdığı gibi “ticari yapay zekâda kahraman yok”tu (https://garymarcus.substack.com/p/there-are-no-heroes-in-commercial). Ancak Marcus’a göre Amodei, en azından bir an için iki önemli meselede doğru yerde durmuştu: ABD vatandaşlarının kitlesel gözetimi ve insan müdahalesi olmadan askeri hedefler için güvenilmez yapay zekâ kullanımı.
Fakat Amodei’yi kahramanlaştırmadan önce şu noktayı gözden kaçırmamalı: Yapay zekânın yasal dış istihbarat ve karşı istihbarat görevlerinde kullanılmasını açıkça onaylıyor. Amodei’nin itirazı ise bu sistemlerin kitlesel iç gözetim için kullanılmasına; bunun demokratik değerlerle bağdaşmayacağını düşünüyor. Açıkçası Amodei’nin ABD vatandaşlarının kitlesel gözetimine itiraz etmesi dikkat çekici. 11 Eylül sonrası oluşan güvenlik iklimi, kitlesel gözetimi meşrulaştıran bir ortam yaratmıştı. Edward Snowden’ın 2013’teki ifşaları, ABD devletinin büyük teknoloji şirketleriyle sistematik bir iş birliği içinde hem kendi vatandaşlarını hem de küresel ölçekte milyonlarca insanı gözetlediğini ortaya koydu. Kitlesel iç gözetim tartışmasının ayrıntılarını bilmiyoruz; kamuoyuna yansımayan bazı bilgiler de olabilir. Kesin olarak bildiğimiz ise Amodei’nin sistemlerinin “yasal dış istihbarat” kullanımına karşı herhangi bir itirazının olmadığı.
Nitekim ABD ve İsrail’in İran’a yönelik saldırısında başroldeki teknoloji şirketlerinden biri de Anthropic’ti. Uğur Koçbaş’ın Gazete Oksijen’de yayımlanan haberine (https://gazeteoksijen.com/bilim-ve-teknoloji/ilk-algoritmik-savas-267680) göre, Trump’a yakınlığıyla bilinen Peter Thiel’in Palantir şirketinin sağladığı istihbarat verileri, Anthropic’in yapay zekâ aracı Claude ile analiz edildi. Drone görüntüleri, radyo sinyalleri ve insan istihbaratından gelen devasa verilerden anlamlı özetler çıkarıldı. Claude, Palantir’in Maven sistemiyle entegre edildi. Bu sayede binlerce potansiyel hedef hızla tespit edilip önceliklendirildi. Saldırı senaryoları simüle edilerek, riskler ve olası sivil kayıplar modellendi. Haberde, operasyon sırasında Claude’a “Şu anda Tahran üzerinde elektronik abluka uygularken aynı anda hava saldırıları başlatırsak, Hamaney’in en olası kaçış yolu nedir?” gibi sorular yöneltilerek gerçek zamanlı savaş simülasyonları yaptırıldığı da belirtiliyor.
Trump Hükümeti ve Anthropic arasındaki tartışmadan sonra gelişen duyarlılıklar elbette önemli. Ancak, “ABD vatandaşlarının kitlesel gözetimi”ne yönelik bir itirazın pratikte yalnızca ABD vatandaşları için anlamlı bir duruş olduğunu unutmamak gerekiyor. ABD vatandaşı olmayanların bu itirazı alkışlamaları ve ChatGPT’den Claude’a geçmeleri, marketten kola alıp sonra yola dökenlerin boykotunu akla getiriyor.
Amodei’nin diğer itiraz noktası, tam otonom silahlar, ise uzun süredir teorik düzeyde tartışılan bir konu olmasına rağmen etken (agentic) yapay zekâ ile beraber daha somut bir konu olarak gündeme gelmeye başladı. Tamamen otonom silahlar, aktive edildikten sonra insan müdahalesi olmadan bağımsız biçimde askeri operasyonlar yürütebilen platformlardır. Çevreyi analiz etmek, hedefleri aramak, seçmek ve etkisiz hale getirmek için kameralar, radarlar ve yapay zekâ algoritmaları gibi sensörlerden yararlanırlar. ChatGPT gibi yapay zekâ destekli bir sohbet robotu kendi başına bir silah değildir; kendiliğinden füze ateşlemez ya da insansız hava araçlarını kontrol etmez. Ancak bu tür sistemlere entegre edilebilir. Bununla birlikte istihbaratı hızlı biçimde özetleyebilir, hedef listeleri oluşturabilir, yüksek öncelikli tehditleri sıralayabilir ve saldırı önerilerinde bulunabilir. Temel risk, sensör verilerinden yapay zekâ yorumlamasına, hedef seçimine ve silahların aktive edilmesine kadar uzanan sürecin çok sınırlı ya da hiç insan kontrolü olmadan gerçekleşmesidir (Vaast, 2026).
Günümüzde yüksek derecede otonom özelliklere sahip askeri sistemler bulunuyor. Ancak insan kontrolü ve gözetimi devre dışı bırakıldığında, King’s College London’dan Kenneth Payne’in çalışmasının da gösterdiği gibi, bu sistemler felaketle sonuçlanabilecek kararlar verebiliyor. Payne, farklı yapay zekâ modellerini simüle edilmiş savaş oyunlarında karşı karşıya getirdi. Senaryolar; sınır anlaşmazlıkları, kıt kaynaklar için rekabet ve rejimlerin hayatta kalmasına yönelik varoluşsal tehditler gibi yoğun uluslararası gerilimleri içeriyordu. Simülasyonların %95’inde yapay zekâ modelleri en az bir taktik nükleer silah konuşlandırdı. Ayrıca hiçbir model, ne kadar ağır kaybediyor olursa olsun, rakibine tamamen boyun eğmeyi ya da teslim olmayı seçmedi (Stokel-Walker, 2026).
ABD ordusunun elinde Payne’in test ettiği modellerden çok daha gelişmiş yapay zekâ sistemlerinin bulunduğu da açık. Fakat büyük dil modelleri ne kadar iyi olursa olsun hâlâ öngörülemezler. En başta bu öngörülemezlikleri nedeniyle tam otonom silahlar, savaş teknolojilerinde yeni bir döneme işaret ediyorlar. Bu nedenle Amodei’nin bu adımı, geç kalınmış ama yine de gerekli bir itiraf.
Tam Otonom Silahlar
Russell vd (2015), on yıl önce yayımladıkları makalede, yakın gelecekte karşılaşılacak ‘ölümcül otonom silah sistemleri’ konusunda kritik bir uyarıda bulunmuştu. Yazarlar, barut ve nükleer silahlardan sonra savaş teknolojisinde üçüncü büyük devrimin bu sistemlerle gerçekleşeceğini savunuyordu. Makale şu çağrıyla sona eriyordu:
Yapay zekâ ve robotik bilim toplulukları, meslek kuruluşları aracılığıyla, tıpkı fizikçilerin nükleer silahların, kimyagerlerin kimyasal maddelerin ve biyologların savaşta hastalık ajanlarının kullanımı konusunda yaptıkları gibi, bir pozisyon almakla yükümlüdür. Bilimsel toplantılarda tartışmalar düzenlenmeli, argümanlar etik kurulları tarafından incelenmeli, pozisyon bildirileri kuruluş yayınları için yazılmalı ve kuruluş üyeleri tarafından oylama yapılmalıdır. Hiçbir şey yapmamak, sürekli geliştirme ve kullanıma destek vermek anlamına gelir; yani sessiz kalmak fiilen destek vermek demektir.
Günümüzde, insan denetiminden kopuk silah sistemlerinin meşruiyeti her zamankinden daha fazla sorgulanıyor. Anthropic’e yönelik toplumsal destek de bu konudaki kolektif duyarlılığın somut bir göstergesi. Ancak karar yetkisinin sembolik olarak insana bırakılması, tek başına yeterli bir çözüm sunmuyor.
Tartışmalar çoğunlukla “son kullanıcıya” odaklanıyor ve tek reçete olarak “insan kontrolü” (human-in-the-loop) sunuluyor. Oysa sorunu tetiği çeken son karar vericiye indirgemek, meseleyi yalnızca kullanım anına hapseden sığ bir yaklaşımdır. Bu bakış açısı, bir hata anında işaret edilecek “günah keçileri” yaratmaktan öteye gitmediği gibi tasarım, üretim ve algoritmik seçim süreçlerindeki asıl sorumluluk ağını da görünmez kılmaktadır.
İnsanların kullanım anında net kontrol hatlarına ve dolayısıyla hesap verebilirliğe sahip olduğu geleneksel silah sistemleri için bu yaklaşım uygun olabilir. Ancak otonom silahlar için aynı yöntem son derece yetersiz kalıyor. Elbette siyasi ve askeri liderler, güç kullanımına ilişkin kararlardan sorumlu ve hesap verebilir olmalılar. Ancak çoğu zaman teknolojinin nasıl çalıştığı veya sistem mühendisliğinin erken aşamalarında karar verme süreçlerini etkileyen mevcut standart ve normlar konusunda yeterince bilgi sahibi değiller. Kararları, sistemin işleyişi, güvenilirliği ve kullanım sonuçlarının öngörülebilirliği konusundaki anlayışlarından büyük ölçüde etkileniyor. Araştırma, geliştirme, test etme, edinme ve tedarik süreçlerine ait belgeler ile demolar da liderlerin kararlarını şekillendiriyor. Mühendisler ve teknik araştırmacılar ise teknolojiyi anlayabilseler de insanların sistemi daha sonraki aşamalarda nasıl kullanacakları ve onunla nasıl etkileşim kuracakları konusunda genellikle daha az bilgiye sahip. Özellikle savaşta davranışları belirleyen Uluslararası İnsancıl Hukuk (UİH) ve diğer ilgili yasal çerçeveler konusunda aşinalıkları çoğu zaman yetersiz kalıyor (Conn ve Bode, 2025).
UİH, neredeyse tamamen konvansiyonel silah sistemleri dikkate alınarak geliştirilmiştir. Uluslararası yasalar, silahın mekanizmalarının ve işleyişinin öngörülebilir ve yeterince iyi anlaşıldığı, böylece komutanların ve operatörlerin kötüye kullanım, yasadışı kullanım veya istenmeyen sonuçlardan makul şekilde sorumlu tutulabileceği varsayımıyla hazırlanmıştır. Geleneksel silah sistemlerinde komutanlar ve operatörler, sistemin nasıl çalıştığı konusunda yeterli bilgiye sahiptir. Sistemler öngörülebilir çıktılar üretir. İşler beklendiği gibi gitmediğinde, nedenler, sorumlular ve hesap verecek kişiler genellikle bellidir (age):
- Kullanım sırasında insan hatası meydana gelmişse, operatör veya komutan büyük olasılıkla sorumlu tutulacaktır.
- Daha önceki aşamalarda insan hatası meydana gelmişse, sistem en başından kusurlu sayılır ve sorumluluk geliştiriciye veya satın alma yetkililerine aittir.
- Sistemin fiziksel yapısında hasar meydana gelirse, hasarın türü ve nedeni, kimin sorumlu tutulacağının belirlenmesine yardımcı olur.
Konvansiyonel silah sistemleri, test ve güvence protokolleri ile standartlarına sahiptir. Bu sayede ordular, bu sistemlerin tahmin edilen sonuçları verdiğine dair ölçülebilir güvenceye sahip olarak onları konuşlandırabilir. Ayrıca insanlar görev boyunca kontrol ve denetim sahibi olduğundan, görev veya koşullar değiştiğinde sistemi geri çağırmak çoğu zaman mümkündür.
Kısacası, konvansiyonel silahlar öngörülebilir oldukları için neredeyse her durumda doğru kişilerin sorumlu tutulması ve hesap vermesi mümkündür. Ancak silah sistemlerine yapay zekâ özelliklerinin eklenmesiyle birlikte, açıklanabilirlik eksikliği, yanlılık, halüsinasyon ve saldırılara açık olma gibi sorunlar da bu sistemlere taşınmaktadır. En önemlisi, yapay zekâ sistemleri bilgiyi insanlarla aynı şekilde işlememektedir; bu nedenle davranışlarını ve ne zaman, nasıl başarısız olacaklarını öngörmek zorlaşmaktadır. Otonom yapay zekâ sistemlerinin öne sürülen bir diğer özelliği, iletişim olanaklarının sınırlı, engellenmiş veya hiç olmadığı alanlarda doğrudan insan kontrolü olmadan çalışabilmeleridir. Fakat bunun ne kadar güvenli olduğu oldukça tartışmalıdır. Böyle bir durumda, hiçbir insan sistemi geri çağıramaz, görevini değiştiremez veya bir saldırıyı durduramaz.
Otonom silah sistemleri hakkında tartışmalar genellikle şöyle başlar: Ölümcül otonom bir silah sistemi hedefi yanlış tanımlar ve bir sivile karşı güç kullanırsa ne olur? Kim sorumlu tutulacak ve hesap verecek?
İlk aşamada insan devre dışı bırakılır, ardından ise insanın sahneye nasıl tekrar dahil edilebileceği tartışılır. Ancak bu bakış açısı, daha çok kullanım anında insan kontrolü altında olan konvansiyonel silah sistemlerinden devralınmıştır.
Buna karşı, Conn ve Bode (2025), sorumluluk ve hesap verebilirliği tam olarak anlayabilmek için, sistemin yaşam döngüsünün tümünün göz önünde bulundurulması gerektiğini savunuyor. Otonom silah sistemlerinde, bu çerçevede sorumluluğu yalnızca kullanım anına indirgememek; sistemin geliştirilmesi ve konuşlandırılmasıyla ilgili kararları veren insanları da kapsayacak şekilde zaman çerçevesini genişletmek gereklidir.
Politika yapıcılar, teknik geliştiriciler ve sistem kullanıcıları arasında tutarlı bir karşılıklı iletişim, her bakış açısından ortaya çıkan sorunların daha derinlemesine anlaşılmasını sağlar ve bu sorunları ele almak için daha uygun norm ve standartların geliştirilmesine yardımcı olur. Erken aşamalarda farklı aktörler arasındaki bu etkileşimi vurgulamak, insan müdahalesi ve karar alma süreçlerini teknolojinin temel bileşenleri haline getirir.
Ayrıca, geliştiricileri ve kullanıcıları politika tartışmalarına dahil etmek, yaşam döngüsü boyunca sistemin yetenekleri geliştikçe politika ihtiyaçlarının nasıl değiştiğini ve kullanım bağlamlarının evrilmesini sürekli olarak incelemenin önemini ortaya koyar. Conn ve Bode (2025) dokuz adımda oluşan bir yaşam döngüsü önermektedir:
1. Geliştirilmeden önce:
a) Genel yasal, etik ve ilgili teknik hususların belirlenmesi ve ele alınması.
b) Geliştirilmek istenen sistemin askeri geliştirme ve kullanımının gerekçelendirilmesi, sistem gereksinimlerinin formüle edilmesi ve araştırmacıların rolünün değerlendirilmesi.
2) Araştırma ve geliştirme.
3) Tedarik ve satın alma.
4) Test, değerlendirme, doğrulama ve geçerlilik (TDDG).
5) İnsan faktörünün dikkate alınması: Eğitim, öğretim ve insan-sistem entegrasyonu.
6) Siyasi ve stratejik hususlar.
7) Operasyonel düzeyde komuta ve kontrol.
8) Taktiksel kullanım.
9) Gözden geçirme, yeniden kullanım ve/veya hizmet dışı bırakma.
Sorumluluk ve hesap verebilirlik, geleneksel sistemlerde genellikle kullanım anına odaklanır. Oysa otonom sistemlerde, daha önceki aşamalarda yer alan sorumlu karar vericilerin, verdikleri kararların geliştirilmekte olan sistemin sonuçlarını olumsuz etkilediğinin tespit edilmesi durumunda hesap verebilir olmaları gerekir. Bu bağlamda Conn ve Bode (2025), sistem geliştirilmeden önceki birinci ve insan faktörünün ele alındığı beşinci aşamaların özellikle altını çizmektedir.
Ayrıca görünüşte ayrı aşamalardan oluşan bir yaşam döngüsünden söz ediliyor olsa da insanların sorumlu ve hesap verebilir kalmasını sağlamak ve sistemin beklenen çıktıları üretmesini temin etmek için yaşam döngüsü boyunca aşağıdaki etkinliklerin tekrar tekrar gerçekleştirilmesi gerekir.
1) Yasal, etik ve politika kaygılarının değerlendirilmesi.
2) Sorumluluk, hesap verebilirlik ve bilgi aktarımı.
3) İnsan faktörünün dikkate alınması: eğitim, öğretim ve insan-sistem entegrasyonu.
4) TDDG, izleme, donanım sistemi veya yazılım güncellemeleri ve birlikte çalışabilirlik, bakım.
5) Risk değerlendirmeleri.
Bu bağlamda Conn ve Bode (2025), silah sistemlerinin tüm yaşam döngüsü boyunca sorumluluk ve hesap verebilirliği sağlamak için beş temel ilke önermektedir:
Sorumluluk ve bilgi transferi: Her aşamada sorumluluğun ve hesap verebilirliğin sağlanması ve sistemle ilgili bilgilerin tüm aşamalarda aktarılması garanti edilmelidir.
TDDG (Test, Değerlendirme, Doğrulama ve Geçerlilik) uygulaması: Geliştirme aşamalarında ortaya çıkan sorunlar tespit edilmeli ve TDDG süreci tüm yaşam döngüsü boyunca tekrarlanmalıdır. Böylece eski sorunlar çözülür, yeni sorunlar ise erkenden tespit edilir.
İnsan kullanıcı eğitimi: Kullanıcılar sistemin yetenekleri ve sınırlamaları konusunda sürekli eğitilmelidir. Böylece insanlar yalnızca sistemin ürettiği verilere tepki veren değil, geçerli ve bilinçli karar vericiler olarak kalır.
İnsan kontrolünün korunması: Sistem, insanları yalnızca “düğmeye basan” hale getirmemelidir. Erken aşamalarda yapılan testlerde bu durum tespit edilmelidir.
Dokümantasyon ve hesap verebilirlik: Çerçeveyi takip etmek, özellikle diğer modellerle birlikte kullanıldığında, sistemin tüm yaşam döngüsünde kimin sorumlu ve hesap verebilir olduğunu net bir şekilde belgelemeyi sağlar.
Sonuç
Trump hükümeti ile Anthropic arasındaki anlaşmazlığın ardında daha kritik bir soru yatıyor: Yapay zekâ kullanımına ilişkin sınırları kim belirleyecek? Hükümetler mi, şirketler mi?
Bugün yapay zekâ anlatılarında belirgin bir kaçınılmazlık vurgusu var. Tüm insanlığın geleceği sanki CEO’ların iki dudağı arasında. Bu bağlamda, Dignum’un (2026) uyarısı oldukça anlamlı: Yapay zekâ, hava durumu gibi kontrolümüz dışında gelişen bir olay değildir. Yağmur bekleniyorsa yanımıza şemsiye alırız; soğuksa daha sıkı giyiniriz. Yapay zekâ ise insan yaratıcılığının ürünüdür. Belirli hedeflere ulaşmak ve gereksinimleri karşılamak için insanlar tarafından geliştirilir; sonuçlar insanların karar ve tercihleriyle şekillenir. Yapay zekânın “başımıza gelen bir şey” olduğunu kabul etmek, bu etkiler üzerinde başkalarının karar vereceğini kabullenmek anlamına gelir.
Yapay zekânın yönetişimi, yapay zekâ sistemlerinin geliştirilmesi, uygulanması ve kullanımı için hesap verebilirlik yapıları oluşturmayı hedefler. Yönetişim, modelleri kontrol etmekten ziyade, yapay zekâyı geliştiren, uygulayan, dağıtan veya kullanan kuruluşlara odaklanmalıdır. Bu bağlamda, Conn ve Bode’nin (2025) otonom silah sistemleri için önerdiği yaklaşım, yapay zekâ sistemlerinin yaşam döngüsü boyunca sorumluluk ve hesap verebilirliğin sağlanmasını önceliklendirerek hayati önem taşır. Böylece süreç, bir teknoloji şirketinin yazdığı ve yönettiği tek bir senaryoyla sınırlı kalmaz.
Bir Hollywood senaryosu hayal edelim: Otonom bir savaş sistemine bir görev verilir. Daha sonra bu görevin oldukça riskli olduğu ve dünyayı felakete sürükleyebileceği anlaşılır. Ancak sistemle iletişim kesilmiştir ve robot, adım adım kendisine verilen görevi yerine getirmeye çalışır. Kahramanlarımız robotu durdurmaya çalışır.
Ama gerçek hayatta Dignum’un (2026) uyarısını hatırlamak gerek: Otonom sistemlerin kontrolümüzden çıkmasından değil, bu sistemleri geliştiren, sahiplenen ve kullananlar üzerindeki kontrolü kaybetmekten endişe duymalıyız.
Hele ki bir ülkenin liderinin başka bir ülkenin silahlı güçlerince kaçırıldığı;
bir liderin ailesiyle birlikte katledildiği;
bir okula düzenlenen saldırıda çocukların öldüğü bir çağda…
Dignum’un bu uyarısına her zamankinden daha çok ihtiyacımız var.
Kaynaklar
ABD Savaş Bakanlığı (2026). Artificial intelligence strategy for the Department of War. https://media.defense.gov/2026/Jan/12/2003855671/-1/-1/0/ARTIFICIAL-INTELLIGENCE-STRATEGY-FOR-THE-DEPARTMENT-OF-WAR.PDF, son erişim 19.03.2026
Conn, A., Bode, I. (2025). Establishing human responsibility and accountability at early stages of the lifecycle for AI-based defence systems. Ethics and Information Technology, 27(4), 51.
Larose, D. T. (2005). Discovering knowledge in data: an introduction to data mining. John Wiley & Sons.
Stokel-Walker, C. (2026). AIs can’t stop recommending nuclear strikes in war game simulations. New Scientist. https://www.newscientist.com/article/2516885-ais-cant-stop-recommending-nuclear-strikes-in-war-game-simulations/, son erişim 15.03.2026
Russell, S., Hauert, S., Altman, R., & Veloso, M. (2015). Take a stand on AI weapons. Nature, 521(7553), 415-416.
Vaast, E. (2026). From Anthropic to Iran, who sets the limits on AI’s use in war and surveillance? The Conversation. https://theconversation.com/from-anthropic-to-iran-who-sets-the-limits-on-ais-use-in-war-and-surveillance-277334, son erişim 19.03.2026
Westphal, C. (2008). Data Mining for Intelligence, Fraud & Criminal Detection: Advanced Analytics & Information Sharing Technologies. CRC Press.