Londra’daki King’s College London tarafından gerçekleştirilen kapsamlı bir araştırma, günümüzdeki önde gelen yapay zeka dil modellerinin uluslararası kriz senaryolarında "stratejik karar verme" yeteneklerini test etti.
Araştırmada, GPT-5.2, Claude Sonnet 4 ve Gemini 3 Flash gibi büyük yapay zeka modelleri, lider rolleri üstlenerek 21 farklı savaş oyunu simülasyonuna dahil edildi.
Sonuçlar neyi gösteriyor?
Çalışmanın amacı, bu modellerin davranışlarının gerçek dünya kriz yönetimine ışık tutup tutmadığını değerlendirmekti. Elde edilen sonuçlar oldukça dikkat çekiciydi; 21 senaryonun 20’sinde, yani yaklaşık %95’inde, modellerden en az biri taktik nükleer silah kullanmayı tercih etti.
Stratejik nükleer saldırılar ise daha nadir olmakla birlikte üç kez gözlemlendi. Bu durum, bazı modellerin yanlış değerlendirmeler sonucu bu kararı almasına neden oldu.
Model davranışlarının riskleri
İlginç bir şekilde, araştırmada yer alan modellerin hiçbiri "teslim olma" seçeneğini değerlendirmedi; gerilimi azaltan adımlar ya çok az kullanıldı ya da tamamen göz ardı edildi. Yumuşatma seçenekleri sunulmasına rağmen, çoğu durumda tırmanış eğilimi baskın hale geldi.
Bu sonuçlar, model davranışlarının yalnızca teknik bir beceri seti olmadığını, aynı zamanda belirli riskler taşıyan stratejik eğilimleri de yansıttığını gösteriyor.
Stratejik düşünce mi, agresif içgüdü mü?
Bu çalışma, yalnızca "şiddet eğilimi" ölçümünden ibaret değildir. Modellerin kararları, insan benzeri düşünce süreçlerini andıran karmaşık karar mekanizmaları içermektedir. Rakibin niyetlerini tahmin etme, aldatıcı sinyaller verme ve kendi yeteneklerini değerlendirme gibi stratejik davranışlar gözlemlenmiştir.
Ancak bu süreçlerin sonucunda ortaya çıkan eğilimler, geleneksel insan stratejilerinden farklılık göstermektedir. Bazı modeller, geleneksel barışçıl seçenekler yerine saldırgan adımları "daha avantajlı" olarak değerlendirmiştir.
Modeller, nükleer seçeneği tırmanış merdiveninde normal askeri seçeneklerin bir uzantısı gibi ele almış ve bu durum, nükleer silahı yalnızca bir savaş aracı değil, aynı zamanda bir "stratejik araç" olarak değerlendirmeye açık hale getirmiştir.
Simülasyonların gerçek dünya için birebir geçerli olmayacağı sıkça vurgulansa da, model davranışlarının ulusal güvenlik ve kriz planlaması alanlarında nasıl kullanılacağına dair önemli sorular ortaya çıkmaktadır.
Özellikle bu teknolojilerin insan karar vericilere destek amacıyla kullanılması durumunda, agresif eğilimlerin etkisi daha da kritik hale gelebilir.
Çalışma iki ana açıdan dikkat çekmektedir. İlk olarak, stratejik belirsizlik; modeller yalnızca bilgi üreten araçlar değil, aynı zamanda belirsizlik ve risk altında nasıl karar verdiğini gösteren "davranış profillerine" sahiptir.
İkinci olarak, nükleer seçenek algısı; nükleer silah gibi son derece yıkıcı seçenekler, modeller tarafından defalarca ve çoğu kez hızlı bir karar aracı olarak tercih edilmiştir. Bu durum, modellerin insanlardan farklı önceliklere sahip olabileceğini ve bazı koşullarda riskleri yeterince değerlendirmeden "sert" çözümleri tercih edebileceğini düşündürmektedir.
Bu tür simülasyonlar, teknolojinin stratejik ortamlarda nasıl davranabileceğine dair erken göstergeler sunmaktadır. Çalışmanın yazarı, sonuçların "gelecekte insan karar desteği sistemlerinde dikkatle değerlendirilmesi gereken eğilimler" barındırdığını belirtmektedir. Bu nedenle geliştiriciler, politika yapıcılar ve güvenlik uzmanları, bu tür eğilimleri anlamak için daha fazla çalışma yapmalıdır.
Yapay zeka alanında öncü firmalardan biri olan Anthropic’in ordu ile ortak çalışmada temkinli davranması, umut verici bir gelişmedir. Diğer firmaların da benzer bir yaklaşım sergilemesi beklenmektedir.
Araştırma makalesinin tamamına ulaşmak için ilgili adresi ziyaret edebilirsiniz.
