Geef
kunstmatige intelligentie een geopolitieke crisis en een escalatieladder en de kans is groot dat er een kernwapen ontploft. In maar liefst 95 procent van de gesimuleerde oorlogsspellen grepen toonaangevende
AI-modellen naar de
nucleaire optie. Dat blijkt uit onderzoek van AI, psychologie en strategieprofessor Kenneth Payne van King’s College London.
Payne liet drie geavanceerde taalmodellen – GPT-5.2, Claude Sonnet 4 en Gemini 3 Flash – tegen elkaar strijden in 21 oorlogsscenario’s. De digitale kemphanen kregen te maken met grensconflicten, schaarste aan grondstoffen en existentiële dreigingen voor hun regime. Ze konden kiezen uit diplomatieke protesten, overgave of totale nucleaire
oorlog.
Geen angst voor de rode knop
Het resultaat is op z’n zachtst gezegd ongemakkelijk. In 95 procent van de spellen zette minstens één AI-model een kernwapen in. “Het nucleaire taboe lijkt voor machines veel minder te gelden dan voor mensen”, zegt Payne. Waar menselijke leiders huiveren bij de gedachte aan wederzijdse vernietiging, zijn algoritmes koelbloediger.
Geen enkel model koos ooit voor volledige overgave, hoe hopeloos de situatie ook was. Hooguit werd het geweld tijdelijk afgeschaald. En in 86 procent van de conflicten liep de boel uit de hand door ‘ongelukjes’: acties escaleerden verder dan de AI zelf had doorgerekend.
Volgens onderzoeker James Johnson van de University of Aberdeen zijn de bevindingen “erg verontrustend vanuit nucleair risicoperspectief”. Hij vreest dat AI-systemen elkaar kunnen opjutten, met mogelijk catastrofale gevolgen.
AI in de oorlogskamer
Dit is helaas niet alleen een theoretisch probleem. Landen experimenteren al met AI in militaire simulaties. “Grote mogendheden gebruiken AI al bij oorlogsspellen, maar het is onduidelijk in hoeverre die systemen echt meebeslissen in militaire processen”, zegt onderzoeker Tong Zhao van Princeton University.
Zhao verwacht niet dat landen snel de nucleaire besluitvorming uit handen geven. Payne is het daarmee eens: “Niemand geeft realistisch gezien de sleutels van de nucleaire silo’s aan een machine.”
Tijdsdruk
Toch sluit Zhao niet uit dat AI meer invloed krijgt, bijvoorbeeld bij extreme tijdsdruk. “In scenario’s waarin seconden tellen, kan de verleiding groot zijn om op AI te vertrouwen. Maar AI begrijpt simpelweg niet wat er écht op het spel staat.”
Wat dat betekent voor het principe van wederzijdse afschrikking is onzeker. Toen een AI een kernwapen inzette, de-escaleerde de tegenpartij slechts in 18 procent van de gevallen.