"Enter"a basıp içeriğe geçin

Etiket: OpenAI

Yazılımların Karmaşıklaşması ve Platformların Gücü

Bilişim teknolojileri uzunca bir süredir gündelik yaşamın kritik bir parçası. Bir yandan, gündelik yaşamın giderek daha geniş bir alanını etkiliyorlar. Eğitimden sağlığa, altyapı hizmetlerinden sosyal ilişkilere kadar bilişim teknolojilerinin yaşamımızdaki yeri giderek genişliyor. Diğer yandan, bilişim teknolojilerinin yaşamımızdaki etkileri de derinleşiyor ve onlara bağımlılığımız artıyor.

19 Temmuz 2024’te yaşamın bir çok alanını etkileyen kaosun söz konusu genişleme ve derinleşmenin bir sonucu olduğunu düşünüyorum. Kaos, bilgisayar güvenliği hizmeti veren bir “endpoint protection” (uç nokta koruma) firması olan CrowdStrike’ın gönderdiği bir güncelleme ile başladı. CrowdStrike’ın güncellemesi sonucunda Microsoft Windows işletim sistemli bilgisayarlar çöktü ve bilgisayarların düzgün bir şekilde açılmasını engelleyen, Mavi Ölüm Ekranı olarak adlandırılan bir döngünün içine hapsoldular. Sağlık, eğitim, havacılık, bankacılık gibi çok farklı sektörlerde, milyonlarca bilgisayarı etkiledi; ameliyatlar ertelendi, uçaklar uçmadı, bankacılık işlemleri aksadı…

Görünürde olayın iki aktörü vardı: Microsoft ve Crowdstrike.

Açık Kaynak Yazılımdan Açık Yapay Zekâya

Richard Stallman’ın 40 yıl önce, 27 Eylül 1983’te, gönderdiği bir e-posta tarihin akışını değiştirdi. Stallman, e-posta’da GNU (Gnu’s Not Unix – GNU, Unix Değildir) adlı bir işletim sistemi geliştireceğini ve GNU’yu onu kullanabilen herkese bedava (free) olarak vereceğini yazıyordu. Daha sonra Stallman niyetini özensiz bir şekilde ifade ettiğini belirtecekti:

Yapay Zekânın Politikliği

OpenAI, ChatGPT’den birkaç ay sonra merakla beklenen GPT-4’ü çıkardı. OpenAI, beş yılda önemli bir yol katetti. GPT (Generative Pre-trained Transformer – Üretken Ön İşlemeli Dönüştürücü) ilk olarak 11 Haziran 2018’de yayımlanan “Üretken Ön Eğitimle Dil Anlayışını Geliştirme” başlıklı makalede tanıtılmıştı. O zamana kadar en iyi sinirsel NLP (Natural Language Processing – Doğal Dil İşleme) modelleri öncelikle büyük miktarlarda etiketlenmiş verilerden denetimli öğrenmeyi kullanıyordu. Bu yaklaşım maliyetli olduğu gibi özellikle açıklaması yeterli olmayan veri setlerinde sınırlı bir performans gösteriyordu. GPT’nin “yarı denetimli” yaklaşımı ise iki aşama içeriyordu. Denetimsiz üretken “ön işleme” aşamasında başlangıç parametrelerini ayarlamak için bir dil modelleme hedefi kullanılıyor. İkinci aşamada ise bir denetimli ayrıştırıcı, parametreleri hedeflenen göreve uyarlayarak ince ayar yapıyor. Kamunun kullanımına açılmayan GPT-1, 120 milyon parametreye sahipti. Modelin eğitiminde çeşitli türlerde 7000 yayınlanmamış kitaptan elde edilen 4,5 GB metin kullanılmıştı. 14 Şubat 2019’da çıkarılan GPT-2 ise 1,5 milyar parametreye sahipti ve eğitiminde Reddit’te oylanan 45 milyon web sayfasından, 40 GB metin ve 8 milyon belgeden yararlanılmıştı. 11 Haziran 2020’de çıkarılan GPT-3’te parametre sayısı 175 milyara ulaştı, eğitiminde kullanılan metin miktarı 570 GB oldu (https://en.wikipedia.org/wiki/Generative_pre-trained_transformer).