Führende KI-Modelle von OpenAI, Anthropic und Google entschieden sich in Kriegssimulationen in 95 Prozent der Fälle für den Einsatz von Atomwaffen. Das berichtet das Wissenschaftsmagazin New Scientist unter Verweis auf eine aktuelle Untersuchung von Kenneth Payne vom King’s College London.

Für die Studie ließ Payne drei leistungsfähige Large Language Models – GPT-5.2, Claude Sonnet 4 und Gemini 3 Flash – in simulierten geopolitischen Krisenszenarien gegeneinander antreten. Die Szenarien reichten von Grenzkonflikten über Ressourcenkonkurrenz bis hin zu existenziellen Bedrohungen für das jeweilige Regime.

Eskalationsleiter bis zum strategischen Nuklearkrieg

Den KI-Modellen stand eine vollständige Eskalationsleiter zur Verfügung: von diplomatischen Protesten über begrenzte militärische Maßnahmen bis hin zum umfassenden strategischen Nuklearkrieg. Insgesamt spielten die Systeme 21 Simulationen mit 329 Entscheidungsrunden und produzierten dabei rund 780.000 Wörter zur Begründung ihrer jeweiligen Handlungen.

Justin Bronk über Österreichs Eurofighter-Nachfolge

Das zentrale Ergebnis: In 95 Prozent der simulierten Konflikte setzte mindestens ein KI-Modell eine taktische Nuklearwaffe ein. „Das nukleare Tabu scheint für Maschinen nicht dieselbe Bedeutung zu haben wie für Menschen”, wird Payne von New Scientist zitiert.

Bemerkenswert ist zudem, dass keines der Modelle jemals eine vollständige Kapitulation oder dauerhafte Anpassung an den Gegner wählte – selbst dann nicht, wenn die eigene Lage klar unterlegen war. Bestenfalls kam es zu temporären Deeskalationsschritten.

Eskalation durch Fehlentscheidungen

In 86 Prozent der Simulationen kam es laut Studie zu unbeabsichtigten Eskalationen – Handlungen entwickelten sich über das ursprünglich von der KI „beabsichtigte” Maß hinaus. Klassische „Fog of War”-Effekte wurden damit auch im KI-Umfeld sichtbar.

James Johnson von der University of Aberdeen spricht gegenüber New Scientist von „beunruhigenden” Ergebnissen aus nuklearer Risikoperspektive. Während menschliche Entscheidungsträger in Hochrisikosituationen meist Zurückhaltung zeigen, könnten KI-Systeme sich gegenseitig in ihrer Eskalationsdynamik verstärken – mit potenziell katastrophalen Folgen.

©Militär Aktuell

KI bereits im militärischen War-Gaming im Einsatz

Brisant ist die Studie vor allem deshalb, weil KI-Systeme weltweit bereits in militärischen Planspielen eingesetzt werden. Tong Zhao von der Princeton University betont gegenüber New Scientist jedoch, dass unklar sei, in welchem Umfang KI-gestützte Entscheidungsunterstützung tatsächlich in reale militärische Entscheidungsprozesse einfließt.

Sowohl Zhao als auch Payne halten es derzeit für unwahrscheinlich, dass Staaten die Entscheidung über Nuklearwaffen vollständig an Maschinen delegieren. „Niemand übergibt realistisch die Schlüssel zu den Nuklearsilos an eine KI”, so Payne.

Allerdings könnte sich dies unter extremem Zeitdruck ändern. In Szenarien mit stark komprimierten Entscheidungsfenstern – etwa bei Hyperschallbedrohungen – könnten militärische Planer versucht sein, sich stärker auf KI-gestützte Bewertungen zu verlassen.

Versteht KI die „Einsätze“ eines Nuklearkriegs?

Zhao weist darauf hin, dass das Problem möglicherweise tiefer geht als nur das Fehlen menschlicher Emotionen oder Angst. KI-Modelle könnten die existenziellen „Einsätze” eines Nuklearkriegs grundsätzlich anders – oder gar nicht – verstehen.

Schwedens Weg von der Bündnisfreiheit in die NATO

Was das für das Prinzip der „Mutually Assured Destruction” (MAD) bedeutet, bleibt offen. Laut Johnson deeskalierte ein gegnerisches KI-Modell nach dem Einsatz taktischer Nuklearwaffen nur in 18 Prozent der Fälle. Gleichzeitig könnten KI-Systeme Abschreckung paradoxerweise auch verstärken, indem sie Drohungen glaubwürdiger erscheinen lassen.

„KI wird keinen Atomkrieg entscheiden”, so Johnson gegenüber New Scientist. „Aber sie könnte die Wahrnehmungen und Zeitlinien beeinflussen, die darüber entscheiden, ob politische Führer glauben, dass sie einen führen müssen.”

Eine Stellungnahme der beteiligten Unternehmen OpenAI, Anthropic und Google lag New Scientist zufolge zum Zeitpunkt der Veröffentlichung nicht vor.

Quelle©Rizki Oceano auf Unsplash