Was passiert, wenn künstliche Intelligenz über Krieg und Frieden entscheidet? Eine neue Studie liefert darauf eine beunruhigende Antwort: In simulierten internationalen Krisen griffen führende KI-Modelle fast immer zu Atomwaffen – deutlich häufiger, als es menschliche Entscheidungsträger tun würden.
In simulierten Kriegsspielen zeigten moderne KI-Systeme eine überraschend hohe Bereitschaft zur nuklearen Eskalation. Das berichtet das Wissenschaftsmagazin „New Scientist“ unter Berufung auf eine neue Studie des britischen Politikwissenschaftlers Kenneth Payne vom King’s College London.
Modelle sollten politische Entscheidungen treffen
Payne ließ drei führende Sprachmodelle gegeneinander antreten: GPT-5.2 von OpenAI, Claude Sonnet 4 von Anthropic und Gemini 3 Flash von Google. In insgesamt 21 simulierten Konflikten – mit Grenzstreitigkeiten, Rohstoffknappheit oder existenziellen Bedrohungen für Staaten – mussten die Modelle politische Entscheidungen treffen.
Fast immer mindestens ein Atomschlag
Das Ergebnis ist deutlich: In 95 Prozent der Simulationen setzte mindestens ein KI-Modell eine taktische Atomwaffe ein. Taktisch bedeutet in diesem Zusammenhang: kleinere Atomwaffen mit begrenzter Zerstörung, nicht der großflächige Einsatz gegen Städte. Dennoch ist die Hemmschwelle bemerkenswert niedrig.
„Das nukleare Tabu scheint für Maschinen deutlich schwächer zu sein als für Menschen“, sagt Payne. Keines der Modelle entschied sich jemals für vollständiges Nachgeben oder Kapitulation – selbst dann nicht, wenn es militärisch klar im Nachteil war.
Eskalation durch Fehler – und Missverständnisse
Hinzu kommt ein weiteres Risiko: In 86 Prozent der simulierten Konflikte kam es zu unbeabsichtigten Eskalationen. Aktionen gerieten gefährlicher als von der KI eigentlich beabsichtigt – ein digitales Abbild dessen, was Militärstrategen als „Nebel des Krieges“ bezeichnen: unklare Informationen, Fehlinterpretationen und unvorhergesehene Zwischenfälle.
Der Sicherheitsexperte James Johnson von der University of Aberdeen nennt die Ergebnisse gegenüber dem „New Scientist“ „beunruhigend“. Anders als Menschen würden KI-Systeme gegenseitige Drohungen schneller hochschaukeln – mit potenziell katastrophalen Folgen.
KI versteht das Risiko nicht wie Menschen
Ein Grund dafür könnte laut Experten sein, dass KI kein echtes Verständnis für das Ausmaß eines Atomkriegs hat. „Es ist möglich, dass das Problem tiefer geht als fehlende Emotionen“, sagt Tong Zhao von der Princeton University. KI-Modelle würden die „Bedeutung und Endgültigkeit“ solcher Entscheidungen nicht so erfassen wie Menschen.
Das wirft Fragen für das Prinzip der gegenseitigen Abschreckung auf – also die Annahme, dass niemand einen Atomkrieg beginnt, weil er selbst vernichtet würde. In den Simulationen deeskalierte die Gegenseite nach einem Atomwaffeneinsatz nur in 18 Prozent der Fälle.
Kein roter Knopf für Maschinen – noch nicht
Alle beteiligten Forscher betonen, dass derzeit niemand reale Atomwaffen vollständig einer KI überlassen will. Payne sagt: „Niemand übergibt ernsthaft die Schlüssel zu den Raketensilos an Maschinen.“
Doch unter extremem Zeitdruck – etwa bei Raketenwarnungen mit Minutenfrist – könnten Militärs versucht sein, stärker auf KI-Empfehlungen zu vertrauen. Genau darin sehen Experten die eigentliche Gefahr.
Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung. Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.
User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB). Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.