A King's College London study pitted Claude Sonnet 4, GPT-5.2, and Gemini 3 Flash against each other in nuclear crisis simulations. Tactical nuclear weapons were deployed in 20 out of 21 games. No model ever surrendered.
awesomeagents.ai
But the question is not whether AI gets the launch codes. The question is whether AI models used for strategic analysis, war-gaming, and decision support will methodically bias the humans who do have launch authority toward escalation. If every simulation your AI advisor runs ends with nuclear deployment being the "rational" choice, that shapes how you think about your options - even if you are the one making the final call.
Men det eg ikkje heilt greier å forstå:
er det LLM-ane som har ein innebygd bias som trekk dei i retning å faktisk bruka taktiske atomvåpen (at treningsdata er skreive på ein eller annan måte som dreg dei i den retninga), eller det vår instinktive motstand mot atomvåpen som strengt tatt er irrasjonell (noko som også kan bety at vi ikkje har integrert grunnlaget for kvifor det å bruka dei a priori vil vera feil tilstrekkeleg godt i måten vi skriv og tenkjer om atomvåpen)?
Klønete formulert, men i den retninga.
Heile systemet av doktrinar for a-våpen dryp jo av kognitiv dissonas: Vi skal ha dei, og vera villige til å bruka dei (planar, prosedyrar, leveransesystem osb) men berre fordi det aldri skal vera naudsynt å bruka dei.