IMI-Analyse 2024/50
Atomkrieg aus Versehen?
von: Karl Hans Bläsius | Veröffentlicht am: 9. Dezember 2024
In Zusammenhang mit Atomwaffen wird seit vielen Jahrzehnten davor gewarnt, dass ein Atomkrieg nicht gewonnen werden kann, kaum begrenzbar ist und das Leben auf der Erde vernichten könnte. Missverständnisse und Fehlinterpretationen durch Menschen und/oder Maschinen könnten auch zu einem Atomkrieg aus Versehen führen.
Frühwarnsysteme für nukleare Bedrohungen
Das Risiko eines Atomkriegs aus Versehen geht vor allem von Frühwarnsystemen aus, die auf Sensoren, sehr komplexen Computersystemen und Netzwerken basieren und der Vorhersage und Bewertung von möglichen Angriffen durch Atomraketen dienen. Dabei kann es zu Fehlalarmen kommen, wobei ein nuklearer Angriff gemeldet wird, obwohl kein Angriff vorliegt. Solche Fehler können ganz unterschiedliche Ursachen haben, wie z.B. Hardware-, Software-, Bedienungsfehler oder fehlerhafte Erkennung und Bewertung von Sensorsignalen. In Friedenszeiten und Phasen politischer Entspannung sind die Risiken sehr gering, dass die Bewertung einer Alarmmeldung zu einem atomaren Angriff führt. In solchen Situationen wird im Zweifelsfall eher von einem Fehlalarm ausgegangen.
Die Situation kann sich drastisch ändern, wenn politische Krisensituationen vorliegen, eventuell mit gegenseitigen Drohungen, oder wenn in zeitlichem Bezug mit einem Fehlalarm weitere Ereignisse eintreten, die damit in kausalen Zusammenhang gebracht werden können. Dann besteht die große Gefahr, dass eine Alarmmeldung als gültig angenommen wird, auch wenn es sich um ein zufälliges zeitliches Zusammentreffen von unabhängigen Ereignissen handelt (siehe atomkrieg-aus-versehen.de).
Gefährliche Situationen
In der Vergangenheit gab es einige Situationen, in denen es nur durch großes Glück nicht zu einem Atomkrieg aus Versehen kam. Insbesondere während der Kuba-Krise gab es einige sehr gefährliche Situationen. Besonders bekannt geworden ist ein Vorfall vom 26.9.1983: Ein Satellit des russischen Frühwarnsystems meldet fünf angreifende Interkontinentalraketen. Da die korrekte Funktion des Satelliten festgestellt wurde, hätte der diensthabende russische Offizier Stanislaw Petrow nach Vorschrift die Warnmeldung weitergeben müssen. Er hielt einen Angriff der USA mit nur fünf Raketen aber für unwahrscheinlich und entschied trotz der Datenlage, dass es ein Fehlalarm sei.
Komplexität steigt
Das Risiko eines Atomkriegs wird in den nächsten Jahren und Jahrzehnten steigen, denn der Klimawandel
wird zu mehr Krisen und vielleicht auch kriegerischen Auseinandersetzungen führen und neue technische Entwicklungen werden die Komplexität von Frühwarnsystemen und Bedrohungssituationen so stark erhöhen, dass die Beherrschbarkeit solcher Systeme immer schwieriger wird. Zu diesen neuen Entwicklungen gehören die Bewaffnung des Weltraums, Laserwaffen, immer mehr KI in Waffensystemen bis hin zu autonomen Waffen und der Ausbau von Cyberkriegskapazitäten.
Anzahl und Varianz an Luftobjekten (z.B. Drohnen) nehmen stetig zu, was auch die Komplexität der Erken-
nungsaufgaben bei der Luftraumüberwachung erhöht. Andererseits führt die Weiterentwicklung von Waffensystemen mit höherer Treffsicherheit und immer kürzeren Flugzeiten (Hyperschallraketen) auch zu kürzeren Entscheidungszeiten. Dies befördert zunehmend den Einsatz von Techniken der Künstlichen Intelligenz, um für gewisse Teilaufgaben Entscheidungen automatisch zu treffen, da für menschliche Entscheidungen keine Zeit mehr bleibt.
Unsicherer Kontext – keine sichere Erkennung
möglich
Eine automatische Erkennung von Objekten und Objektmerkmalen bei Raketenangriffen ist nur beschränkt möglich. Für eine solche Erkennung werden verschiedene Signalquellen verwendet, wozu Lichtsignale, akustische Signale sowie Wärme-, Radar- und Bilddaten gehören. Die Sensoren liefern Werte wie z.B. Helligkeit, Farbspektren, Intensität und Dauer von Lichtsignalen, Lautstärke und Frequenzen von akustischen Signalen und die Größe und Form von Radarsignalen. Diese Werte haben einen Vagheitscharakter, das heißt sie können meist nicht einfach nach irgendwelchen Kriterien als zutreffend oder nichtzutreffend festgelegt werden, sondern gelten bezüglich solcher Kriterien in gewissem Maße, wobei es ein kontinuierliches Spektrum zwischen „trifft zu“ und „trifft nicht zu“ geben kann. Hierbei herangezogene Kriterien könnten z.B. auf Vergleichen mit Standard- oder Erwartungswerten beruhen. Wegen des Vagheitscharakters dieser Daten sind die Ergebnisse einer Bewertung immer unsicher, d.h.
sie gelten nur mit einer gewissen Wahrscheinlichkeit. Dies gilt auch für andere Erkennungsaufgaben in diesem Zusammenhang, wie z.B. Objekterkennungen auf Basis von Bilddaten.
Signale werden auch nicht immer auftreten, können also unvollständig sein. Dies kann insbesondere für
neue lenkbare Raketensysteme gelten, die einer Erfassung ausweichen können. Des Weiteren sind für die
elektronische Kampfführung Systeme entwickelt worden, die es ermöglichen sollen, eine Erkennung durch
die gegnerische Flugabwehr zu verhindern. Im Falle einer Angriffsmeldung kann also nicht sichergestellt werden, dass die Daten auf Basis mehrerer unabhängiger Signalquellen überprüft werden können.
Dass keine sichere Erkennung auf der Basis einer unsicheren und unvollständigen Datengrundlage möglich ist, ist ein grundsätzliches Problem, das auch dann weiter besteht, wenn die KI immer besser wird.
Unkalkulierbare Zufälle
Fehlalarme in Frühwarnsystemen für nukleare Bedrohungen können jederzeit eintreten und ganz unter-
schiedliche Ursachen haben. Ob ein solcher Fehlalarm gefährlich ist, hängt vom jeweiligen Kontext ab. Der
Fehlalarm vom 26.9.1983, bei dem Petrow besonnen reagiert hatte, wäre erheblich gefährlicher gewesen, wenn er einige Wochen später zwischen dem 7. und 11. November erfolgt wäre. Zu dieser Zeit lief das Nato-Manöver Able Archer, in dem ein Atomkrieg simuliert wurde. Dieses Manöver wird heute im Hinblick auf die damalige Krisensituation als sehr gefährlich eingeschätzt. Wäre in diesem Zeitraum ein solcher Fehlalarm wie am 26.9. vorgekommen, hätte nicht so einfach ein Fehlalarm angenommen werden können.
Auch die Art eines Fehlalarms und der Grad der Bedrohungslage können von Zufällen abhängen. Petrow
hatte am 26.9.1983 entschieden, dass es sich um einen Fehlalarm handelte, da er einen Angriff mit nur 5 Raketen für unwahrscheinlich hielt. Der Fehlalarm wurde durch bestimmte Lichtsignale und Spiegelungen beim Sonnenaufgang verursacht. Offenbar wurden fünfmal gewisse Schwellen überschritten, sodass jeweils ein Raketenstart gemeldet wurde. Auch diese Zahl fünf ist hierbei zufällig entstanden. Die Meldung der Raketenstarts erstreckte sich über mehrere Minuten. Es hätte ebenso passieren können, dass eine solche Schwelle nur einmal überschritten, also nur ein Raketenstart gemeldet worden wäre. Es hätte aber in diesen Minuten auch sekündlich die Schwelle überschritten werden können, mit dem Resultat, dass 100 oder mehr Raketenstarts gemeldet worden wären. In einem solchen Fall hätte Petrow vermutlich anders reagieren müssen.
Das Überleben der gesamten Menschheit kann derzeit also von Zufällen abhängen, die weder vorhersag-
bar noch sinnvoll verarbeitbar sind. Solche Zufallsaspekte treffen auch bei vielen alltäglichen Unfällen zu,
die gravierende Folgen haben können, wobei die Wirkung in der Regel aber lokal begrenzt ist. Dies gilt nicht für das Atomkriegsrisiko, hier sollte die Menschheit nicht von solchen Zufällen abhängen.
Überprüfbarkeit
Die Datengrundlage ist bei automatisierten Entscheidungen häufig vage, unsicher und unvollständig. Erkennungsergebnisse können deshalb grundsätzlich falsch sein. Dies gilt auch dann, wenn eine automatische Entscheidung von diesem System als sicher eingestuft wird.
In vielen Fällen sind automatische Entscheidungen von Menschen schwer überprüfbar, denn diese basieren häufig auf Hunderten von gewichteten Merkmalen, aus denen mit einer speziellen Bewertungsformel ein Gesamtergebnis errechnet wird. Ein solcher Lösungsweg, also die Begründung für ein Entscheidungsergebnis, ist meist nicht einfach nachvollziehbar. Eine Überprüfung könnte einige Stunden oder auch Tage in Anspruch nehmen, wofür die Zeit in der Regel nicht reicht. Dies wird vor allem im militärischen Kontext gelten.
Wenn nicht das Entscheidungsergebnis selbst von Menschen einfach und schnell bewertbar ist, bleibt dem Menschen nur übrig, zu glauben, was die Maschine liefert. Erfolgreiche und korrekte KI-Entscheidungen werden mit der Zeit auch dazu führen, dass das Vertrauen inn solche Systeme wächst und es für Menschen damit immer schwieriger wird, sich den Entscheidungen der Maschine zu widersetzen. Insbesondere könnten Menschen in besonderem Maße zur Rechenschaft gezogen werden, wenn sie anders entscheiden, als von der Maschine vorgeschlagen und sich dies als falsch herausstellt.
Die Forderung, dass die letzte Entscheidung über Leben und Tod bei einem Menschen liegt, also das Prinzip „man in the loop“ gelten muss, könnte sich als Scheinkontrolle herausstellen. Denn es ist fraglich, ob der Mensch die vorliegenden Informationen in der verfügbaren Zeit bewerten und damit eine geeignete Grundlage für seine Entscheidung haben kann. Bei wichtigen Aufgaben, wie z.B. der Bewertung einer nuklearen Alarmmeldung, könnte es vielleicht helfen, wenn Menschen über Informationen verfügen, die die Maschine nicht hat. Dies könnte es erleichtern, sich gegen eine Entscheidung der Maschine zu stellen.
Erwartungshaltung und Vertrauen
Bei der Bewertung von Alarmmeldungen wird es in der verfügbaren geringen Zeitspanne von wenigen Minuten oft nicht möglich sein, zu entscheiden, ob es sich um einen echten Angriff oder einen Fehlalarm handelt. Wenn die technischen Systeme keine klaren Antworten liefern, könnte bei der Bewertung solcher Alarmmeldungen die Erwartungshaltung eine entscheidende Rolle spielen, also Fragen wie: Wie ist die gegenwärtige weltpolitische Lage? Kann dem Gegner derzeit ein solcher Angriff zugetraut werden? Die Entscheidung der Bewertungsmannschaft wird folglich auch vom gegenseitigen Vertrauensverhältnis zwischen den Konfliktparteien abhängen.
Ein Beispiel für eine fatale Fehlentscheidung ist der Absturz eines ukrainischen Verkehrsflugzeugs am 8. Januar 2020 im Iran. Die 176 Insassen starben. Wenige Tage später stellte sich heraus, dass dieses Flugzeug aus Versehen von der iranischen Luftabwehr abgeschossen wurde. Am 3. Januar 2020 hatten die USA den iranischen General Soleimani mit einem Drohnenangriff getötet. Als Vergeltungsangriff hat der Iran wenige Tage später amerikanische Stellungen im Irak angegriffen. Kurz danach wurde das ukrainische Verkehrsflugzeug aus Versehen abgeschossen. Die Bedienungsmannschaft hatte mit Krieg oder einem Vergeltungsangriff gerechnet und in dieser angespannten Situation das Flugobjekt für einen angreifenden Marschflugkörper gehalten. Der politische Kontext und eine entsprechende Erwartungshaltung hatten bei der Situationsbewertung höheres Gewicht als rein sachliche Fakten, wie z.B. die Größe des Radarsignals, das für einen Marschflugkörper eigentlich zu groß war.
In Krisensituationen kann es auch in Zusammenhang mit Alarmmeldungen in Frühwarnsystemen für nukleare Bedrohungen zu gefährlichen Fehlkalkulationen kommen. Man kann sich auch die Frage stellen: Wie würde jemand wie Petrow heute bei einer ähnlichen Situation wie am 26.9.1983 entscheiden? Käme es heute in Russland zu einer solchen Alarmmeldung, wüsste der verantwortliche Offizier, dass wegen des Krieges in der Ukraine viele wissenschaftliche, wirtschaftliche und kulturelle Beziehungen abgebrochen wurden, und er würde möglicherweise denken: „Niemand möchte mit uns etwas zu tun haben, alle hassen uns.“ Wie wird bei solchen Gedanken seine Entscheidung ausfallen? Wird er auch jetzt entscheiden, dass es sich um einen Fehlalarm handelt?
Wenn Menschen auf beiden Seiten unter den Sanktionen und dem Abbruch aller Beziehungen leiden und
Hass aufgebaut wird, könnte sich dies auch nachteilig auf die Bewertung von Alarmmeldungen auswirken.
Wenn der Gegner verhasst ist, dann wird man dem Gegner einen solchen Angriff eher zutrauen, was die Tendenz erhöhen könnte, einen Alarm als echten Angriff einzustufen. Kriegsrhetorik, nukleare Drohungen und der Abbruch vieler Beziehungen (z.B. wirtschaftlich, wissenschaftlich, kulturell) können maßgeblich zu einer Erwartungshaltung beitragen, die in einer Alarmsituation zu einer fatalen Fehlkalkulation führen kann. Ein gewisses Maß an Vertrauen und möglichst viele Kontakte auf allen Ebenen würden die Risiken erheblich reduzieren.
Risiken durch geplante Stationierung von neuen Raketen
Wenn es Alarmmeldungen bezüglich angreifender Raketen gibt, wird nicht eindeutig feststellbar sein, ob es sich um einen echten Angriff oder einen Fehlalarm handelt. Es wird auch nicht eindeutig feststellbar sein, um welche Raketenarten es sich handelt, falls der Angriff echt ist. Deshalb wird nicht eindeutig feststellbar sein, ob angreifende Raketen nuklear bewaffnet sind oder welche Treffsicherheit und Durchschlagskraft sie haben.
Falls eine Alarmmeldung als echt eingestuft wird, muss angenommen werden, dass nur ein Teil der angreifenden Raketen erkannt ist und noch einige oder viele mehr unterwegs sein könnten, die bisher von den Sensoren noch nicht erfasst wurden. Das könnte insbesondere für neuartige Raketensysteme gelten, die eine Erkennung erschweren oder verhindern können.
Um für eigenen Schutz zu sorgen, muss eine scheinbar angegriffene Nation also mit dem Schlimmsten
rechnen und von einem „worst-case scenario“ ausgehen, das heißt, dass der Gegner seine besten Waffensysteme einsetzt. Je stärker die Bedrohung durch einen potenziellen Gegner ist, z.B. durch immer bessere Raketensysteme, desto eher muss ein „Launch on Warning“ in Betracht gezogen werden, also der Start der eigenen Raketen, bevor die des Gegners einschlagen und die eigenen Systeme zerstören. Damit führt die nun geplante Stationierung von neuen Raketensystemen in Deutschland zu einer Erhöhung des Risikos eines Atomkriegs aus Versehen.
Generative KI
In einem am 30.5.2023 veröffentlichten Statement haben führende KI-Wissenschaftler*innen und Chef*in-
nen großer KI-Unternehmen davor gewarnt, dass KI zum Auslöschen der Menschheit führen könnte (siehe
ki-folgen.de). Systeme der generativen KI könnten unser Intelligenzniveau in vielen Gebieten erreichen und wir könnten die Kontrolle über solche Systeme verlieren. Nach dieser Warnung gab es auch Spekulationen, ob ein KI-System „auf den Knopf drücken kann“, also einen Atomkrieg auslösen kann. Dies mag theoretisch möglich sein, die Wahrscheinlichkeit hierfür ist vermutlich aber sehr gering. Allerdings kann es andere erhebliche Risiken geben, wie zum Beispiel gravierende Cyberangriffe und vielfältige Desinformationen mit Hilfe solcher KI-Systeme.
In militärischen Organisationen wie der Nato haben Weiterentwicklungen von Techniken der kognitiven
Kriegsführung derzeit hohe Priorität. Auch solche Kompetenzen könnten von Systemen wie ChatGPT er-
worben werden. Systeme der generativen KI könnten so enorme Fähigkeiten erwerben, um Menschen zu manipulieren, auch Politiker*innen und Militärs. Menschen könnten massiv unter Druck gesetzt werden, irgendwelche Handlungen vorzunehmen, die sie eigentlich nicht wollen. Solche Aspekte könnten auch Frühwarnsysteme zur Erkennung von nuklearen Angriffen und die Nuklearstreitkräfte betreffen und unkalkulierbare Risiken in Zusammenhang mit Atomwaffen verursachen. Die Frage ist also weniger, ob irgendwann eine KI auf den Knopf drückt und einen Atomkrieg auslöst, sondern eher, ob ein Mensch von einem KI-System so manipuliert werden kann, dass dieser Mensch es tut.
Risikoreduzierung
Zur Reduzierung des Atomkriegsrisikos wären wirksame Vereinbarungen zwischen allen Nationen erforderlich. Wichtig wären neben Vereinbarungen zur nuklearen Rüstungskontrolle auch Vereinbarungen zum Klimawandel, zu autonomen Waffen, zum Cyberraum und eine Regulierung der KI. Als Voraussetzung hierfür müssten die aktuellen Kriege beendet und ein gewisses Maß an Vertrauen zwischen allen Staaten wieder aufgebaut werden (siehe fwes.info).