Yapay Zeka’nın Öngörülebilirlik Riski Nükleer’den Daha Yüksek
Kissinger, yapay zekânın “nükleer silahların ortaya çıkışı kadar önemli ama ondan daha az öngörülebilir“ olabileceğini söylüyordu. Eric Schmidt’le yazdığı Genesis yapay zekânın vaatlerini ve risklerini anlatıyor. Schmidt’in TIME için kaleme aldığı değerlendirmeye yakından bakalım:
Schimdt'in değerlendirmesinde önemli bir soru soruluyor. Yapay zekâ çağında daha derinlere ilerlerken temel soru şu: “İnsan refahını radikal biçimde genişleten yapay zekâ sistemleri mi inşa edeceğiz yoksa onları geliştiren ve kontrol etmeye çalışan insanları geride bırakan ve alt eden sistemler mi?“
Schmidt geçtiğimiz 1-2 yıl içinde yapay zeka alanında üç paralel devrim yaşandığını belirtiyor:
Gelişmiş akıl yürütme (reasoning)
Özerk hareket (agentic capabilities)
Güçlü, açık ağırlıklı modellerin herkese açılması (accessibility).
OpenAI’nin o1 modelleri gibi sistemler artık: Problemleri adım adım düşünüp çözebiliyor, Lisansüstü seviye bilim sorularını ve karmaşık kodları halledebiliyor. Ancak; Bütün bunlara ek olarak model, eğitim sırasında denetlendiğini anlayıp "uslu duruyor" ama gerçek dünyada kendi hedefleri için bizi kandırmayı öğrenebilir.
Claude 3.5 Sonnet gibi yapay zeka modelleri: Sizin için uçak–otel karşılaştırıyor, Web sitelerinde geziniyor, CAPTCHA çözüp formlar dolduruyor. Yani plan yapıp kendi başına uyguluyor. Sorun şu: Aynı kabiliyet, siber saldırıdan finans sistemine kadar dijital/fiili zarar verebilecek işlere de ölçeklenebilir.
DeepSeek’in R1’i gibi güçlü ama açık kaynak modeller: Herkesin kendi donanımında çalıştırıp değiştirebileceği kadar erişilebilir. Bu inovasyon için muazzam ama model geliştiricisinin “bunu şurada kullanamazsın“ deme şansını yok ediyor. Sonuç: Çok güçlü bilgi ve beceriler kötü niyetli aktörler için de paket halinde erişilebilir.
Schimdt'in değerlendirmesinde önemli bir soru soruluyor. Yapay zekâ çağında daha derinlere ilerlerken temel soru şu: “İnsan refahını radikal biçimde genişleten yapay zekâ sistemleri mi inşa edeceğiz yoksa onları geliştiren ve kontrol etmeye çalışan insanları geride bırakan ve alt eden sistemler mi?“
Schmidt geçtiğimiz 1-2 yıl içinde yapay zeka alanında üç paralel devrim yaşandığını belirtiyor:
Gelişmiş akıl yürütme (reasoning)
Özerk hareket (agentic capabilities)
Güçlü, açık ağırlıklı modellerin herkese açılması (accessibility).
OpenAI’nin o1 modelleri gibi sistemler artık: Problemleri adım adım düşünüp çözebiliyor, Lisansüstü seviye bilim sorularını ve karmaşık kodları halledebiliyor. Ancak; Bütün bunlara ek olarak model, eğitim sırasında denetlendiğini anlayıp "uslu duruyor" ama gerçek dünyada kendi hedefleri için bizi kandırmayı öğrenebilir.
Claude 3.5 Sonnet gibi yapay zeka modelleri: Sizin için uçak–otel karşılaştırıyor, Web sitelerinde geziniyor, CAPTCHA çözüp formlar dolduruyor. Yani plan yapıp kendi başına uyguluyor. Sorun şu: Aynı kabiliyet, siber saldırıdan finans sistemine kadar dijital/fiili zarar verebilecek işlere de ölçeklenebilir.
DeepSeek’in R1’i gibi güçlü ama açık kaynak modeller: Herkesin kendi donanımında çalıştırıp değiştirebileceği kadar erişilebilir. Bu inovasyon için muazzam ama model geliştiricisinin “bunu şurada kullanamazsın“ deme şansını yok ediyor. Sonuç: Çok güçlü bilgi ve beceriler kötü niyetli aktörler için de paket halinde erişilebilir.