Yapay zekâ (YZ)’nin insan ve toplum hayatı üzerindeki etkileri öylesine büyük ki! Örneğin, “kendi kendini kopyalayabilen ve adaptasyon gösterebilen“ (ARA — autonomous replication and adaptation) yetenekler, yanlış ellere düştüğünde büyük çaplı felaketlere yol açma potansiyeline sahip.
Yakın dönemde, YZ geliştiricileri ve araştırmacılarının üzerinde çalıştığı “Sorumlu Ölçeklendirme Politikaları (Responsible Scaling Policies — RSPs)“ tam da bu noktada devreye giriyor. Bu politikalar, YZ’nin yeteneklerinin kontrollü ve güvenli bir biçimde artırılmasını amaçlıyor. METR gibi kuruluşlar RSP’leri övse de, aynı zamanda gönüllü taahhütlerin tek başına yeterli olamayacağını belirtiyor.
Peki, bu politikalar ne kadar işlevsel ve pratikte karşımıza hangi engeller çıkıyor?
Bu yazıda, YZ’nin neden risk yarattığını, RSP’lerin hangi sorunlara çözüm getirmeyi hedeflediğini, bugünün öncü YZ şirketlerinin (OpenAI, Anthropic, Google DeepMind, Meta) güvenlik çalışmalarındaki eksikleri ve devletler ile bağımsız kuruluşların alması gereken sorumlulukları ele alacağım. Ayrıca, gelecekte gerçekten güvenli bir YZ ekosistemi oluşturmak için hangi somut adımların atılması gerektiğine dair kapsamlı bir rehber sunacağım.
YZ’nin Yükselişi ve Beraberinde Getirdiği Riskler
Hızlı Gelişimin Tarihsel Arka Planı
Bir zamanlar bilimkurgu filmlerine malzeme olan YZ, 2010'lu yıllarda büyük bir atılım yaparak günlük yaşama damgasını vurdu. Dil modelleri (örneğin, ChatGPT, Claude, Bard), görüntü işleme algoritmaları ve otonom sistemler, sadece teknoloji meraklılarının değil, her kesimden insanın dikkatini çekti. Özellikle büyük veri ve giderek ucuzlayan GPU/TPU altyapıları, YZ modellerinin hızla eğitilmesini mümkün kıldı.
Ancak bu baş döndürücü ilerlemenin bir bedeli var. Kötü niyetli aktörlerin eline geçtiğinde veya gerekli güvenlik önlemleri alınmadan dağıtıldığında, YZ sistemleri önemli toplumsal zararlar doğurabilir.
Kötü Niyetli Kullanımın Tehlikeleri
Gelişmiş YZ modelleri, yalnızca olumlu hedefler için kullanılmakla kalmayabilir. Örneğin, bir terör örgütü ya da yasa dışı faaliyet gösteren gruplar, biyolojik silah üretimine dair bilgiye hızlıca erişebilir veya kitlesel dezenformasyon kampanyaları düzenleyebilir. ARA kapasitesine sahip bir YZ, büyük ölçekli siber saldırılarda kilit rol oynayabilir. Bu saldırılar, enerji altyapısını devre dışı bırakmak, kamu kuruluşlarının verilerini çalmak veya finans sektörü üzerinde yıkıcı etkiler yaratmak şeklinde ortaya çıkabilir.
Deepfake ve Dezenformasyon
Derin öğrenme yöntemleriyle oluşturulan sahte görüntüler, videolar ve ses kayıtları, karar vericilerden sıradan vatandaşlara kadar herkesin güvenini sarsabilecek düzeyde. Özellikle seçim dönemlerinde yaygınlaşan dezenformasyon, toplumun istikrarını tehdit edebilir. Büyük dil modelleri bu tür sahte içerikleri üretmede kullanılabilir; örneğin, bir siyasetçinin hiç söylemediği sözleri söylemiş gibi gösteren videolar oluşturmak artık çok daha kolay.
Otonom Silah Sistemleri
Sadece yazılı ve görsel dezenformasyon değil, aynı zamanda fiziksel silahlar da YZ ile gelişiyor. Otonom silah sistemleri, “insan onayı olmadan“ hedef belirleyebilen ve saldırıyı başlatabilen yapılar haline geliyor. Bu silahların kontrolü kaybedilirse, telafisi mümkün olmayan zararlar ortaya çıkabilir.
Ekonomik ve Toplumsal Dengesizlikler
YZ’nin iş gücü piyasalarına etkisi hâlâ tam olarak öngörülemiyor. Bazı mesleklerin hızla ortadan kalkabileceği, gelir dağılımı adaletsizliklerinin daha da derinleşebileceği konuşuluyor. YZ’nin sağladığı verimlilik artışı şirketlere kâr olarak dönse de toplumun tüm kesimleri bu faydayı eşit derecede paylaşamayabilir. Bu da sosyal gerilimlerin artmasına yol açabilir.
Sorumlu Ölçeklendirme Politikaları (RSPs) Nedir ve Neden Gündemdeler?
RSP’lerin Doğuşu
RSP’ler, YZ’nin tehlikeli yeteneklerini sınırlamak ve kontrol edebilmek için geliştirilen ilke bütünleridir. METR gibi kuruluşlar tarafından desteklenen bu politikalar, bir YZ modelinin hangi aşamada “kritik“ seviyeye ulaştığını belirleyerek, o eşik noktasında çeşitli önlemlerin (geliştirmeyi durdurma, dağıtımı sınırlama veya güvenlik katmanlarını artırma gibi) uygulanmasını öngörür.
Bu politikalar, “gönüllü taahhütler“ olarak doğsa da, sektör genelinde bir standart hâline gelebilir. Ancak şu anki haliyle, yasal bir bağlayıcılığı yoktur ve şirketlerin kendi öz-denetim mekanizmalarıyla sınırlıdır.
RSP’lerin Kapsamı
RSP’ler, genellikle şu ana unsurları içerir:
- Sınır Tanımları: Modelin hangi yeteneklere ulaştığında tehlikeli hale geleceğinin belirlenmesi.
- Değerlendirme ve Test Süreçleri: Modele düzenli aralıklarla stres testleri uygulayarak, beklenmedik durumlarda nasıl tepki verdiğini ölçmek.
- Durdurma veya Yavaşlatma Mekanizmaları: Bir risk eşiği aşıldığında, modelin eğitiminin veya dağıtımının durdurulması.
- Güvenlik Katmanları: Modelin kötü niyetli kullanımlarını engelleyecek çeşitli teknik önlemler.
- Hesap Verebilirlik ve Şeffaflık: Geliştiricilerin ve şirketlerin aldığı kararları, kamuoyuna açık bir şekilde raporlaması.
Jack Titus ve bazı uzmanlar, mevcut RSP’lerin yeterince bağlayıcı olmadığını ve belirsiz tanımlara sahip olduğunu öne sürüyor.
“Mevcut hazırlık çerçeveleri, gelecekteki riskleri kontrol altına almak için yeterince net ve sıkı değil,“ sözü bu eleştirilerin özeti.
Büyük şirketlerin, kâr kaygılarını göz önünde bulundurarak risk eşiğini yüksek tutma ihtimali de var. Öte yandan, sektör devleri Anthropic, Google DeepMind ve OpenAI, RSP’lerin umut verici bir ilk adım olduğunu ve araştırmalarını bu yönde derinleştirdiklerini belirtmekte. Yine de, bu şirketlerin güncel yayınlarına bakıldığında, güvenlik çalışmalarının daha çok “mekanistik yorumlanabilirlik“ ve “insan geri bildirimlerini geliştirme“ (RLHF) gibi, ürünlerini doğrudan iyileştirmeye hizmet eden alanlarda yoğunlaştığı görülüyor.
Şirketler Riskleri Ne Kadar Ciddiye Alıyor?
Aşağıdaki şekil, OpenAI, Anthropic, Google DeepMind ve Meta’nın güncel raporlarında ortaya koydukları güvenlik yaklaşımlarını ana hatlarıyla karşılaştırır:
Metnin tamamı alttaki ilgili dokümanda mevcuttur.