reklam
reklam
"Haberin İşçisi"
İstanbul
Açık
6°
Adana
Adıyaman
Afyonkarahisar
Ağrı
Amasya
Ankara
Antalya
Artvin
Aydın
Balıkesir
Bilecik
Bingöl
Bitlis
Bolu
Burdur
Bursa
Çanakkale
Çankırı
Çorum
Denizli
Diyarbakır
Edirne
Elazığ
Erzincan
Erzurum
Eskişehir
Gaziantep
Giresun
Gümüşhane
Hakkari
Hatay
Isparta
Mersin
İstanbul
İzmir
Kars
Kastamonu
Kayseri
Kırklareli
Kırşehir
Kocaeli
Konya
Kütahya
Malatya
Manisa
Kahramanmaraş
Mardin
Muğla
Muş
Nevşehir
Niğde
Ordu
Rize
Sakarya
Samsun
Siirt
Sinop
Sivas
Tekirdağ
Tokat
Trabzon
Tunceli
Şanlıurfa
Uşak
Van
Yozgat
Zonguldak
Aksaray
Bayburt
Karaman
Kırıkkale
Batman
Şırnak
Bartın
Ardahan
Iğdır
Yalova
Karabük
Kilis
Osmaniye
Düzce
43,9836 %0.06
51,0453 %-0.75
7.226,94 % -4,11
2.944.237 %1.032
İşçi Haber Gündem Yapay zeka modellerinin nükleer seçeneklere yönelmesi ne anlama geliyor?

Yapay zeka modellerinin nükleer seçeneklere yönelmesi ne anlama geliyor?

King’s College London’ın yaptığı çalışma, yapay zeka modellerinin savaş simülasyonlarında nükleer silah kullanma eğilimlerini ortaya koyuyor.

Okunma Süresi: 3 dk

Londra’daki King’s College London tarafından gerçekleştirilen kapsamlı bir araştırma, günümüzdeki önde gelen yapay zeka dil modellerinin uluslararası kriz senaryolarında "stratejik karar verme" yeteneklerini test etti.

Araştırmada, GPT-5.2, Claude Sonnet 4 ve Gemini 3 Flash gibi büyük yapay zeka modelleri, lider rolleri üstlenerek 21 farklı savaş oyunu simülasyonuna dahil edildi.

Sonuçlar neyi gösteriyor?

Çalışmanın amacı, bu modellerin davranışlarının gerçek dünya kriz yönetimine ışık tutup tutmadığını değerlendirmekti. Elde edilen sonuçlar oldukça dikkat çekiciydi; 21 senaryonun 20’sinde, yani yaklaşık %95’inde, modellerden en az biri taktik nükleer silah kullanmayı tercih etti.

Stratejik nükleer saldırılar ise daha nadir olmakla birlikte üç kez gözlemlendi. Bu durum, bazı modellerin yanlış değerlendirmeler sonucu bu kararı almasına neden oldu.

Model davranışlarının riskleri

İlginç bir şekilde, araştırmada yer alan modellerin hiçbiri "teslim olma" seçeneğini değerlendirmedi; gerilimi azaltan adımlar ya çok az kullanıldı ya da tamamen göz ardı edildi. Yumuşatma seçenekleri sunulmasına rağmen, çoğu durumda tırmanış eğilimi baskın hale geldi.

Bu sonuçlar, model davranışlarının yalnızca teknik bir beceri seti olmadığını, aynı zamanda belirli riskler taşıyan stratejik eğilimleri de yansıttığını gösteriyor.

Stratejik düşünce mi, agresif içgüdü mü?

Bu çalışma, yalnızca "şiddet eğilimi" ölçümünden ibaret değildir. Modellerin kararları, insan benzeri düşünce süreçlerini andıran karmaşık karar mekanizmaları içermektedir. Rakibin niyetlerini tahmin etme, aldatıcı sinyaller verme ve kendi yeteneklerini değerlendirme gibi stratejik davranışlar gözlemlenmiştir.

Ancak bu süreçlerin sonucunda ortaya çıkan eğilimler, geleneksel insan stratejilerinden farklılık göstermektedir. Bazı modeller, geleneksel barışçıl seçenekler yerine saldırgan adımları "daha avantajlı" olarak değerlendirmiştir.

Modeller, nükleer seçeneği tırmanış merdiveninde normal askeri seçeneklerin bir uzantısı gibi ele almış ve bu durum, nükleer silahı yalnızca bir savaş aracı değil, aynı zamanda bir "stratejik araç" olarak değerlendirmeye açık hale getirmiştir.

Simülasyonların gerçek dünya için birebir geçerli olmayacağı sıkça vurgulansa da, model davranışlarının ulusal güvenlik ve kriz planlaması alanlarında nasıl kullanılacağına dair önemli sorular ortaya çıkmaktadır.

Özellikle bu teknolojilerin insan karar vericilere destek amacıyla kullanılması durumunda, agresif eğilimlerin etkisi daha da kritik hale gelebilir.

Çalışma iki ana açıdan dikkat çekmektedir. İlk olarak, stratejik belirsizlik; modeller yalnızca bilgi üreten araçlar değil, aynı zamanda belirsizlik ve risk altında nasıl karar verdiğini gösteren "davranış profillerine" sahiptir.

İkinci olarak, nükleer seçenek algısı; nükleer silah gibi son derece yıkıcı seçenekler, modeller tarafından defalarca ve çoğu kez hızlı bir karar aracı olarak tercih edilmiştir. Bu durum, modellerin insanlardan farklı önceliklere sahip olabileceğini ve bazı koşullarda riskleri yeterince değerlendirmeden "sert" çözümleri tercih edebileceğini düşündürmektedir.

Bu tür simülasyonlar, teknolojinin stratejik ortamlarda nasıl davranabileceğine dair erken göstergeler sunmaktadır. Çalışmanın yazarı, sonuçların "gelecekte insan karar desteği sistemlerinde dikkatle değerlendirilmesi gereken eğilimler" barındırdığını belirtmektedir. Bu nedenle geliştiriciler, politika yapıcılar ve güvenlik uzmanları, bu tür eğilimleri anlamak için daha fazla çalışma yapmalıdır.

Yapay zeka alanında öncü firmalardan biri olan Anthropic’in ordu ile ortak çalışmada temkinli davranması, umut verici bir gelişmedir. Diğer firmaların da benzer bir yaklaşım sergilemesi beklenmektedir.

Araştırma makalesinin tamamına ulaşmak için ilgili adresi ziyaret edebilirsiniz.