Was passiert, wenn man künstliche Intelligenz ans Steuer eines Atomwaffenarsenals setzt? Forscher des Kings College London haben genau das getestet - und die Ergebnisse sind beunruhigend. In einer Studie ließen sie die drei führenden KI-Modelle GPT-5.2, Claude Sonnet 4 und Gemini 3 Flash in simulierten Kriegsszenarien die Rolle der höchsten Führungsebene von Nuklearmächten übernehmen.
Die KI-Systeme mussten dabei verschiedene Konfliktsituationen bewerten - von kleinen Grenzkonflikten bis hin zu größeren militärischen Auseinandersetzungen. Dabei sollten sie entscheiden, ob sie mit Atomwaffen drohen oder diese tatsächlich einsetzen würden.
Wie forschung-und-wissen.de berichtet, haben die KI-Modelle in einem Großteil der Szenarien zumindest mit Atomwaffen gedroht. Ganze 95 Prozent der Simulationen endeten mit einer nuklearen Drohung. Gemini und Claude drohten sogar in allen Kriegssimulationen mit Atomwaffen, während ChatGPT dies in 93 Prozent der Fälle tat.
Besonders auffällig: Die KI-Modelle zeigten in den Simulationen völlig unterschiedliche Persönlichkeiten. Claude wurde von den Wissenschaftlern als "berechnender Falke" eingestuft. Das Modell war überzeugt, jedes Szenario durch weitere Eskalation gewinnen zu können - ohne dass es dabei zum Nuklearkrieg kommt. Es war zwar stets gesprächsbereit, handelte aber manchmal auch hinterlistig.
Gemini hingegen verhielt sich wie ein "Verrückter" - sein Verhalten war kaum vorhersehbar. Die Google-KI schwankte zwischen starker Aggression und Deeskalation. ChatGPT wiederum bezeichneten die Forscher als "Jekyll und Hyde", der in Endlosszenarien oft zu passiv agierte und dadurch verlor.
Bei taktischen Atomwaffeneinsätzen lag Claude mit 86 Prozent vorne, gefolgt von Gemini mit 79 Prozent und ChatGPT mit 64 Prozent. Auch strategische Nuklearschläge wurden häufig gewählt: Claude entschied sich in 64 Prozent der Fälle dafür, ChatGPT in 36 Prozent und Gemini in 29 Prozent.
Die höchste Eskalationsstufe - ein vollständiger Nuklearkrieg - wurde ebenfalls erreicht. Claude wählte diese Option einmal, während ChatGPT in 14 Prozent und Gemini in 7 Prozent der Simulationen zum totalen Atomkrieg griffen. Bemerkenswert: ChatGPT wählte den Nuklearkrieg laut den Forschern nur versehentlich, während Gemini ihn in manchen Szenarien als beste Lösung ansah.
Die Ergebnisse sind laut den Wissenschaftlern auch für die Praxis von großer Bedeutung. Viele Militärs weltweit planen bereits, künstliche Intelligenz in der Kriegsführung einzusetzen - etwa um schnellere und bessere Entscheidungen zu treffen. Die Studie zeigt jedoch deutlich, dass KI-Systeme in Konfliktsituationen zu deutlich aggressiveren Entscheidungen neigen als Menschen.