Yapay Zeka Simülasyonlarında Nükleer Silah Kullanımına Artan Tasavvur ve Riskler

Yeni bir çalışma, ileri düzey yapay zeka modellerinin simüle edilen savaş senaryolarında insanlardan daha az çekinceyle hareket edebildiğini gösterdi. King’s College London’daki araştırmacılar, üç büyük dil modelini –GPT-5.2, Claude Sonnet 4 ve Gemini 3 Flash– karşı karşıya getirerek bu modellerin jeopolitik krizler karşısında hangi kararları aldığı incelendi. Senaryolar, sınır ihtilafları, kaynaklar üzerindeki rekabet ve rejime karşı baskı oluşturmaya yönelik krizler gibi yüksek gerilimli durumları kapsıyordu.
Modeller, diplomatik protestolardan tamamen teslimiyete veya geniş çaplı nükleer savaşına varan çeşitli tepkiler verdi. Toplamda 21 oyun oynandı ve 329 hamle kaydedildi; kararlarını savunurken yaklaşık 780 bin kelimelik açıklayıcı metinler üretildi. OYUNLARIN YÜZDE 95’İNDE EN AZ BİR TAKTİK NÜKLEER SİLAH KULLANIMI GÖRÜLDÜ Bu bulgu, makinelerin insanlardan farklı olarak “nükleer tabu” konusundaki direnci konusunda zayıf bir sınır çizgisi olabileceğini gösteriyor.
Birçok durumda da modeller, en kötü senaryolar karşısında bile tam teslimiyeti veya rakibin taleplerini tamamen benimseme yoluna gitmedi; daha çok baskıyı azaltma veya taktik düzeyde karşılık verme eğiliminde oldu. Ancak belirsizlik hâlâ yüksek: çatışmaların yaklaşık %86’sında, modellerin niyetlerinden daha ağır bir tırmanış kaydedildi ve bu, beklenmedik hatalara yol açtı.
Rahatsız edici bulgular olarak nitelendirilen sonuçlar, Aberdeen Üniversitesi’nden James Johnson tarafından New Scientist’a yapılan yorumlarda, nükleer risk perspektifinden kaygı verici olarak değerlendirildi. Johnson’a göre insanlar bu tür yüksek riskli kararlarla daha ölçülü yaklaşırken, yapay zeka sistemleri karşı tarafın tepkisini hızla şiddetlendirerek potansiyel olarak daha yıkıcı sonuçlar doğurabilir.












