IMI-Analyse 2024/37 - in: AUSDRUCK (September 2024)

Move Fast and Kill Humans:

Aktuelle Tendenzen in der High Tech-Kriegsführung.

von: Jutta Weber | Veröffentlicht am: 12. September 2024

Drucken

Hier finden sich ähnliche Artikel

———————————————————-

AUSDRUCK – Das IMI-Magazin
Ausgabe September 2024

Schwerpunkt: Ungewisse Zukunft
Gesamte Ausgabe hier herunterladen

———————————————————-

„Der technisch-militärische Fortschritt brachte ein spezifisches Paradoxon mit sich: Je vollkommenere Waffenarten er hervorbrachte, eine um so größere Rolle spielte in ihrer effektiven Anwendung der Zufall, der sich nicht exakt berechnen läßt.“ Stanislaw Lem

Die Fähigkeit zu fortgeschrittener algorithmischer, durch Künstliche Intelligenz (KI) gestützter Kriegsführung bedeute einen ähnlichen Machtvorsprung wie der Besitz von taktischen Atomwaffen. Zumindest behauptet das Alex Karp, CEO der Sicherheits- und Rüstungsplattform Palantir – eine Firma, die heute als einer der wichtigsten KI-Waffenhändler gilt.[1]

Wie sich aktuell der militärisch-industrielle Komplex neu formiert, lässt sich gut am Beispiel der Ukraine studieren, die nicht zuletzt als Reaktion auf den russischen Überfall und aufgrund der vehementen Unterstützung aus dem Westen zu einem KI- und Drohnen-Kriegslabor mutiert ist.

In der Ukraine werden Cyber- und Clouddienste von Microsoft, Google und Amazon genauso wie die Starlink-Satellitententerminals von Elon Musk genutzt. Man arbeitet mit der Gesichtserkennungs- bzw. Überwachungssoftware der US-amerikanischen Firma Clearview AI, die von EU-Datenschützer:innen schon mehrfach auf die Löschung der Gesichter europäischer Bürger:innen, welche sie ohne Zustimmung in den sozialen Medien gesammelt hatte, sowie größere Geldsummen verklagt wurde. Mit Hilfe der Clearview-Anwendungen werden nicht nur tote russische Soldat:innen sondern auch ukrainische ‚Fahnenflüchtige‘, ‚Kollaborateure‘ etc. (fehl-)identifiziert. Mit der Software von Palantir analysiert man wiederum im großen Stil Daten von Satellitenbildern, Drohnenvideos, Open Source Intelligence wie Social Media, Militärberichten und anderem mehr. Diese Daten fließen in KI-gestützte Entscheidungs-, Zielfindungssysteme und Battle Management Systeme ein. Anders als die „klassischen“ GAFAM-Überwachungs- und Big Data-Plattformen (Google, Amazon, Facebook, Apple, Microsoft) ist Palantir von Beginn an im Rüstungs- und Sicherheitssektor unterwegs. Als Start-up von der CIA gefördert, dominiert es heute den KI-Sicherheits- und Rüstungsmarkt – wobei man sich Mühe gibt, mit Anwendungen im Gesundheitsbereich und sogenannten humanitären Projekten das Image aufzubessern.

Doch auch die marketingorientierten GAFAM-Überwachungsplattformen (Google, Amazon, Facebook, Apple, Microsoft) strecken heute ihre Finger zunehmend in Richtung militärisch-industriellem Komplex aus. Laut der Zeitung ‚Tech Inquiry‘ betrug die maximale Investition allein der fünf größten (bekannten) US-Rüstungsaufträge an Big Tech-Unternehmen zwischen 2019 und 2022 bereits 53 Milliarden Dollar. Dass dies nicht immer dem Selbstverständnis der Mitarbeitenden entspricht, wurde deutlich, als Googlemitarbeiter:innen 2018 gegen die Mitarbeit am Projekt ‚Maven‘, ein Pentagonprojekt für Gesichts- und Objekterkennung bei Drohnenvideos, protestierten. Google musste letztendlich den Vertrag aufgeben und Palantir übernahm das Projekt 2020. Doch heute steigt Google wieder groß in das Rüstungsgeschäft ein.

Im algorithmischen Krieg spielen Drohnen – neben den Entscheidungs-, Tracking- und Zielfindungssystemen – eine wachsende Rolle, von tele-operierten und First-Person-View- bis zu (teil-)autonomen Drohnen. Im Russland-Ukrainekrieg werden z.B. inzwischen hunderttausende von relativ kleinen Drohnen, sogenannten billigen First-Person-View-Drohnen, eingesetzt, die aus sogenannten ‚Racing Drones‘ entwickelt wurden. Sie werden in der Ukraine oft von Freiwilligen zusammengebaut und dann vom Militär mit Sprengstoffladungen ausgestattet.

Drohnen werden von großen Rüstungsfirmen wie auch von kleinen Start-ups permanent (weiter-)entwickelt und in der Ukraine, in Gaza, Äthiopien und anderen Kriegsgebieten getestet. In der Ukraine gibt es unterdessen größere Förderprogramme für KI-, Robotik- und Software-Start-ups sowie Wettbewerbe für Nachwuchswissenschaftler:innen und Bastler:innen. Dies soll nicht nur im Krieg helfen, sondern der vom Krieg extrem geschwächten Wirtschaft mit Hilfe der klassischen Start-up-Logik auf die Beine helfen. Die Ukraine wird das neue KI-Kriegs-Silicon Valley – oder zumindest als solches inszeniert. Auf jeden Fall versucht man verstärkt, westliche Investor:innen für KI-basierte Rüstung ins Land zu locken.

Künstliche Intelligenz: Über Daten, Machine Learning, Trial & Error

Die neueren Kriege u.a. in Berg-Karabach, der Ukraine und in Gaza machen deutlich, dass algorithmische Kriegsführung mit KI-gestützten Entscheidungs-, Zielfindungs- und Tötungssystemen sowie tele-operierten bzw. autonomen Drohnen zur neuen ‚Normalität‘ im Krieg werden bzw. geworden sind. Doch was bedeutet genau algorithmische bzw. KI-gestützte Kriegsführung?

Meredith Whittaker, CEO des Open-Source-Messenger Signal, verweist zurecht darauf, dass die Grundlagen für heutige KI-Anwendungen alles andere als neue Wunderwerkzeuge sind, für die sie so oft angepriesen werden[2]. Im Gegenteil: Sie sind schon mehrere Jahre bis Jahrzehnte alt. Künstliche Intelligenz bedeutet vor allem Big Data und das seit den 1950er Jahren entwickelte Machine Learning. Auf der Basis der heute leistungsstärkeren Rechner (und neueren, flexibleren NoSQL-Datenbanken) wird die Verarbeitung der von den großen toxischen GAFAM-Plattformen (Google, Amazon, Facebook, Apple, Microsoft) und Co. gesammelten riesigen Datenvolumen möglich – von Bild- und Gesichtserkennung bis zur Weiterentwicklung der KI als Large Language Models. So brüstet sich Palantir mit seiner neuen AIP-Plattform damit, dass ChatGPT4 bei der Entscheidungsfindung im Gefecht die entscheidenden Vorschläge mache.

Die Ansammlung und Verarbeitung von Big Data ist nicht einem aktuellen großen wissenschaftlichen Durchbruch geschuldet, sondern basiert auf dem Geschäftsmodell der systematischen und großflächigen Überwachung und des Profilings ganzer Bevölkerungen und des damit verbundenen Marketings durch die großen Plattformen in den letzten zwei Jahrzehnten. Genau das kontinuierliche Sammeln der Datenmengen und die schnelleren Rechner haben den KI-Hype erst ermöglicht. In den letzten Jahren entdecken nun die Big Tech-Player des Überwachungskapitalismus die Rüstung als neues und sehr lukratives Geschäftsfeld. Private US-Big Tech-Firmen wie Palantir, Google oder Microsoft bestimmen heute, wer Zugang zu den KI- und datenbasierten Entscheidungs-, Tracking- und Zielfindungssysteme bekommt. So war Alex Karp wohl der erste westliche Geschäftsmann, der sich nach Beginn des Russland-Ukrainekriegs mit Selensky traf. Er versicherte aber auch kurz nach Ausbruch des Gaza-Krieges Israel seiner (algorithmischen) Unterstützung – trotz der Proteste vieler Mitarbeitenden.

Es scheint, es sind nicht primär die Regierungen oder Geheimdienste, die über den Zugang zu kriegsrelevanten Daten und KI-Anwendungen entscheiden, sondern die Plattformen, die zwar Regierungsaufträge bekommen, aber doch recht freihändig darüber entscheiden können, wer welche Produkte bekommt oder eben nicht. Es sind nicht mehr allein die klassischen großen Rüstungsfirmen wie Lockheed Martin, Boeing, BAE Systems oder Rheinmetall, die noch vor allem von den Aufträgen und Rüstungsexportkontrollen der eigenen Regierungen abhängig sind und waren, welche die Entwicklung neuer Militärtechnologien dominieren.

Gleichzeitig nimmt gerade im Bereich der Entwicklung auch die Bedeutung von Start-ups zu, die bei ersten Erfolgen meist von den großen Plattformen aufgekauft werden. In diesem Zusammenhang ist Stanislaw Lems Spekulation über Waffensysteme interessant. Er schreibt: Es „entstanden neue, verbesserte Waffenarten im Entwurf so schnell, daß die Industrie mit ihrer militärischen Einführung nicht Schritt halten konnte. Die Systeme der Befehlserteilung, des Zielanflugs, der Camouflage, der Lenkung, der Aufrechterhaltung und Unterbrechung von Kommunikationslinien, zusammen mit der Vernichtbarkeit der konventionellen Waffen … wurde anachronistisch, ehe sie noch zur serienmäßigen Ausrüstung der militärischen Formationen gelangen.“[3]

Richtig ist auf jeden Fall, dass heute neue Waffen in atemberaubender Geschwindigkeit entwickelt werden. Allerdings sind es gerade nicht große Maschinen wie Panzer oder Kampfflugzeuge, die, wie bei Lem implizit vorausgesetzt, im großen Stil industriell produziert werden, sondern es sind verhältnismäßig (im Vergleich zum Jetfighter) eher kleinere Drohnen und Softwareanwendungen, welche ‚on the fly‘ entwickelt und direkt auf dem Schlachtfeld getestet werden.

Dieses Testen der Softwareanwendungen auf dem Schlachtfeld ähnelt dem Verfahren der ‚selbstlernenden‘ Lernalgorithmen selbst. Letztere operieren nicht klassisch top-down (von oben nach unten), sondern es werden automatisiert leicht variierte Reiterationen vorhandener Algorithmen produziert. Mit Hilfe dieses systematisierten Trial-and-Error-Verfahrens (nach Versuch und Irrtum) werden dann aus einem Heer von meist unbrauchbaren Lösungen die guten, sprich optimierten aussortiert. Man grast mit einem Bottom-up-Verfahren (von unten nach oben) ein Suchfeld ab, bestimmt Randbedigungen und nähert sich so potentiellen Lösungen an – ohne vorab rational-kognitiv den Lösungsweg zu bestimmen. Gut formulierte Zielvorgaben soll(t)en sicher stellen, dass sich der Algorithmus in die richtige Richtung entwickelt.

Die Theoretikerin Marijn Holtink spricht bei neueren Kriegen von ‚Prototyping Warfare‘ und verweist v.a. auf das rasend schnelle Konstruieren und Ausprobieren von neuen Waffen wie z.B. von Drohnen im Ukrainekrieg – das gleiche gilt aber auch für die Software inklusive ihrer inneren Logik. Worüber hingegen (fast) niemand spricht, sind die Auswirkungen dieser unkontrollierten Entwicklung und des Einsatzes von Waffen und Software ‚on the fly‘. Und noch einmal Stanislaw Lem: „Es sah danach aus, als sollten nicht die technisch-militärischen Erfindungen den Ausschlag geben, sondern das Tempo, mit dem sie in die Industrie eingeführt wurden.“ Heute werden die Protoypen oft gar nicht mehr in die industrielle Produktion überführt – so werden Drohnen off the shelf umgenutzt oder eben Software schnell umgenutzt oder angepasst. Der Softwarezyklus ist ein ganz anderer als der industrieller Produktion großer Maschinen. Gleichzeitig halten GAFAM & CO die für KI und Cloudservices benötigte Infrastruktur sowieso schon bereit. Man schaue etwa auf die Nutzung von Cloudservices von Amazon und Microsoft im aktuellen Gazakrieg[4]. Es geht also eher um das Tempo bei den Softwareupdates und um die Zugangsmöglichkeiten zu KI-basierten Anwendungen. Was wiederum an die alte Logik des Silicon Valley erinnert: Move fast and break things. In diesem Falle müsste man man dann wohl eher sagen: Move fast and kill humans.

Was bedeutet es aber, wenn man mit probabilistischen Techniken der KI bestimmt, wer sterben muss und wer leben darf? Die Behauptungen der Big Tech-Player bezüglich der Präzision und der ‚Intelligenz‘ dieser Systeme haben sich immer wieder als falsch herausgestellt. Computergestützte Kriegsführung ist so alt wie der Vietnamkrieg. Der Drohnenkrieg im Zuge des ‚War on Terror‘ hat deutlich gezeigt, dass es vor allem die Zivilist:innen sind, die in diesen so genannten High-Tech Kriegen sterben. Aber die Märchen von der Präzision und dem ‚totalen Überblick‘ (Full Spectrum Dominance’) werden weiter verbreitet. Um dieses Vorgehen zu legitimieren, werden riesige Kongresse über ethische KI im militärischen Bereich abgehalten.

Fantastische Summen

Gleichzeitig werden aber auch weiterhin riesige Waffensysteme konzipiert und entwickelt. Man denke an das größte europäische Rüstungsprojekt ‚Future Combat Air System‘ (FCAS) mit einem geschätzten Finanzvolumen zwischen 300 Milliarden und zwei Billionen Euro (!) – was eine wahrhaft fantastische Summe ist.[5] FCAS gilt als das größte Verteidigungsprojekt Europas für die nächsten Jahrzehnte. Es ist als Netzwerk aus einem Kampfflugzeug der sechsten Generation, ferngesteuerten Trägerfahrzeugen bzw. (semi-)autonomen Drohnen, Sensoren und Waffen konzipiert, deren Module über eine Air Combat Cloud (Luft-Gefechts-Wolke) verknüpft werden sollen. Es soll die allmähliche Integration und Ersetzung der aktuell verwendeten Plattformen (Eurofighter, Rafale) ermöglichen. Man verspricht seinen Einsatz für das Jahr 2040, aber es mehren sich Stimmen, dass nicht vor 2050 damit zu rechnen sei – wenn überhaupt. Man munkelt, dass es hauptsächlich von einem Interesse an technologischer Führerschaft getrieben sei. Zudem spielt es eine wichtige Rolle bei der Förderung von Industrie und Export.

Derart hochkomplexe Systeme sind aber extrem fehleranfällig und wartungsintensiv. Schon jetzt ist der neueste US-amerikanische Jetfighter F-35 – der die US-amerikanische Bevölkerung inklusive Anschaffungs- und Instandhaltung mehr als 1,7 Billionen Dollar kostet bzw. kosten wird – aufgrund von Software- und anderen Problemen mehr auf dem Boden als in der Luft. Für ein derart komplexes Gebilde wie FCAS aber multipliziert sich das Problem. Noch einmal Stanislaw Lem: „Die totale Vermeidung von Pannen ist unerreichbar. Wenn ein System aus Millionen von Elementen zusammengesetzt ist und jedes Element bloß einmal in einer Million aussetzt, wobei die Leistung des Ganzen von der Leistung aller Elemente abhängt, dann tritt mit Sicherheit eine Panne im System auf.“[6]

Kaum Kritik, keine Kontrolle

Erstaunlich bei diesen Entwicklungen ist, warum so wenig Kritik an einer derart zynischen Waffenproduktion laut wird.

So ist z.B. FCAS nicht nur teurer als alle anderen vorangegangen, sondern man fragt sich, wie angesichts der Geschwindigkeit von Forschung, Entwicklung und Testung von neuen Drohnen und von Software eine Rüstungsplanung auf 15 oder gar 25 Jahre im Voraus möglich sein soll. Kein Mensch und auch kein/e Experte/in kann zum heutigen Zeitpunkt eine Vorstellung davon haben, wie die technische, militärische und strategische Situation in dreißig Jahren aussehen wird. Man behauptet zwar, die jeweils aktuellen Entwicklungen auch in vorhandene Systeme einzubauen, aber wie weit das möglich und sinnvoll ist, bleibt offen.

Aktuell entwickelt sich eine High-Tech-Kriegsführung, die auf möglichst schneller, KI-basierter Technikentwicklung auf der Basis von Protoypen, Wahrscheinlichkeiten und unausgereiften Experimenten basiert und der vor allem unzählige Zivilist:innen zum Opfer fallen – wie es der israelische Journalist und Filmemacher Yuval Abraham am Beispiel des Einsatzes des KI-gestützten Targetingsystems ‚Gospel‘ und der Datenbank ‚Lavender‘, die (Big) Data über (angebliche) Hamaskämpfer sammelt, gezeigt hat. Mittels Unterstützung durch diese KI-gestützten Targetingsysteme konnte das israelische Militär die Identifizierung von Zielen in Gaza von 50 Zielen im Jahr auf 50 Ziele am Tag (!) erhöhen und operierte dabei mit vordefinierten Akzeptanzraten von zivilen Opfern. Beides ist aus Sicht der Genfer Konvention untragbar.

Gleichzeitig explodieren die Kosten der großtechnischen Systeme, während man Soziales, Bildung, Demokratieförderung und Kultur bis zur Unkenntlichkeit zusammenspart und notwendige Investitionen in Infrastruktur und die sozialökologische Transformation nicht vorgenommen werden[7].

So bleibt noch die Frage der demokratischen Kontrolle. Die US-amerikanischen Big Tech-Player allein besitzen die Daten sowie die materiellen und infrastrukturellen Voraussetzungen für die KI-gestützte Kriegsführung. Und es gibt zwar eine massive Förderung dieser Entwicklung durch das Pentagon, aber letztlich kaum eine Kontrolle über diese Entwicklung, keine Exportkontrolle für diese neuen Technologien und schon gar nicht eine Regulierung dieser Technopolitik. Schon 1961 warnte der damalige US-Präsident Eisenhower vor den wachsenden Problemen des militärisch-industriellen Komplexes, seiner Macht und seinem Einfluss und die verheerenden Folgen für Demokratie und Frieden. „We want democracy to survive for all generations to come, not to become the insolvent phantom of tomorrow. Down the long lane of history yet to be written, America knows that this world of ours, ever growing smaller, must avoid becoming a community of dreadful fear and hate, and be, instead, a proud confederation of mutual trust and respect.“[8]

Doch genau diese Gemeinschaft(en) der Angst und des Hasses scheinen sich heute wieder herauszubilden – wie wir sie aus dem Kalten Krieg, aus der Zeit des Vietnamkriegs oder des ‚War on Terror‘ kennen. Aktuell finden sich wenige politisch einflussreiche Stimmen, die die Bedeutung von Frieden, Diplomatie und Abrüstungsverhandlungen betonen. Im Gegenteil – die Dynamik der Angst(mache) und des Hasses scheint sich zu beschleunigen.

Doch man erinnere sich: Nach zwanzig Jahren Krieg haben 2021 die US-amerikanischen Truppen und auch die deutschen Truppen Afghanistan Hals über Kopf verlassen. Die politische und demokratische Situation vor Ort ist heute schlimmer als jemals zuvor. Doch das scheint den Glauben an den Krieg als die Lösung von Konflikten nicht getrübt zu haben. Im Gegenteil, heute kommen nach Jahrzehnten von primär asymmetrischen Kriegen wieder Kriege zwischen den geopolitischen Großmächten als Möglichkeiten oder auch Realitäten in Betracht – Russland gegen die Ukraine; die NATO gegen Russland; China gegen Taiwan; die USA gegen China etc. pp …

Es scheint weiterhin einfacher zu sein, auf Waffengewalt denn auf Diplomatie zu setzen. Und die Big Tech-Plattformen freuen sich und entwickeln und verkaufen ihre Überwachungs- und Rüstungsoftware und -anwendungen weiter im großen Stil. Denn ohne die KI-basierten Entscheidungs-, Targeting- und Tötungssysteme – so die Erzählung – ist kein Krieg mehr zu gewinnen. Egal wie hoch die Kosten für Zivilist:innen sind in einem Krieg, der mit groben Wahrscheinlichkeitskalkulationen, sprich waghalsigen Korrelationen und schnell zusammengefixten Prototypen arbeitet – und immer mehr arbeiten wird.

Anmerkungen

[1]„Even Palantir CEO Alex Karp has argued that „the power of advanced algorithmic warfare systems is now so great that it equates to having tactical nuclear weapons against an adversary with only conventional ones“; James Bamford: How US Intelligence and an American Company feed Israel’s Killing Machine in Gaza, thenation.com (12.4.2024).

[2] Meredith Whittaker: Das KI-Märchen, zeit.de (12.6.2024).

[3] Stanislaw Lem: Die Waffensysteme des 21. Jahrhunderts oder The Upside Down Evolution. Frankfurt a.M. 1983, S. 28.

[4] Yuval Abraham: ‚Order from Amazon‘: How tech giants are storing mass data for Israel’s war, 972mag.com (4.8.2024).

[5] In einer Studie von Greenpeace geht Marius Pletsch gar von Lebenszyklus-Kosten von bis zu 2 Billionen Euro aus; Marius Pletsch: Flug ins Ungewisse – Die teure Odyssee des Future Combat Air Systems, Greenpeace.de (21.12.2023).

[6] Lem 1983, 20f; kursiv im Orig.

[7] vgl. u.a.: 600 Milliarden Euro staatliche Extra-Investitionen über 10 Jahre können öffentliche Infrastruktur und Wirtschaft zukunftsfähig machen; Hans Böckler Stiftung: 600 Milliarden Euro staatliche Extra-Investitionen über 10 Jahre können öffentliche Infrastruktur und Wirtschaft zukunftsfähig machen, boeckler.de (4.5.2024)

[8] Dwight D. Eisenhower, Farewell address, Radio and TV, January 17, 1961; „Wir möchten, dass die Demokratie für alle nachfolgenden Generationen bestehen bleibt, und nicht zum bankrotten Phantom von morgen wird. Entlang des weiten Weges der Geschichte, die jetzt zu schreiben ist, weiß Amerika, dass unsere Welt immer kleiner wird und muss vermeiden, eine Gemeinschaft von Furcht und Hass zu werden. Sie muss stattdessen ein stolzer Bund gegenseitigen Vertrauens und Respekts werden.“ Übersetzung nach: Friedenskultur-leben.de, dort findet sich die gesamte Rede in deutscher Übersetzung.