IMI-Standpunkt 2021/032

KI-Drohnen auf Menschenjagd

Völkerrechtswidrige Aufrüstung von Proxys in Libyen

von: Pablo Flock | Veröffentlicht am: 16. Juni 2021

Drucken

Hier finden sich ähnliche Artikel

Nachdem der „erste echte Drohnenkrieg der Geschichte“ (Annegret Kramp-Karrenbauer) zwischen Aserbaidschan und Armenien trotz seiner großen Verluste in überaus kurzer Zeit einige gar bewundernde Aufregung über die gar nicht mehr so neue Technologie lostrat und Drohnen-Herstellern wohl in die Tasche spielte (IMI-berichtete), wurde nun eine neue Revolution in der Kriegskunst ausgerufen: Möglicherweise haben mit künstlicher Intelligenz (KI) ausgestattete Drohnen zum ersten Mal ohne menschliche Überwachung menschliche Ziele identifiziert, verfolgt und getötet. Bevor internationale Abkommen den Gebrauch solcher Waffen regulieren, ist die Welt im Zeitalter der autonomen Kriegsführung angekommen.

Der im März 2021 veröffentlichte Abschlussbericht der vom UN-Sicherheitsrat mit der Überwachung des libyschen Waffenembargos beauftragten Expertenkommission attestiert dem Embargo völlige Ineffektivität. Offensichtlich schaffen es immer weitere und hochwertigere Waffen nach Libyen. Während die in Tripolis regierende, international anerkannte Regierung der Nationalen Einheit ausschließlich von der Türkei gegen das Embargo verstoßende Waffenlieferungen bekam, erhielten die General Haftar unterstehenden Streitkräfte der Nationalen Befreiungsarmee hauptsächlich aus den Vereinigten Arabischen Emiraten und Russland, aber auch aus Jordanien und Ägypten Waffenlieferungen. Zweimal sollen Soldaten Haftars außerdem am königlichen Militär-Kolleg Jordaniens und einmal mit der syrischen Luftwaffe trainiert haben. Für die Streitkräfte der Einheitsregierung gab es insgesamt sieben Trainings in der Türkei oder durch türkische Ausbilder in Libyen.

Herumlungernde“, autonome Munition

Sowohl bessere Ausbildung wie auch bessere Waffensysteme werden im UN-Bericht als Erklärung für die Landgewinne der Kräfte der Regierung der nationalen Einheit ausgemacht. Eine besondere Rolle spielten dabei die türkischen Drohnen vom Typ Kargu-2 – ein kleiner, 7kg leichter, bewaffneter Quadrokopter, den der Hersteller STM als Angriffsdrohne für asymmetrische Kriegsführung und die Terrorismusbekämpfung bewirbt – und andere „herumlungernde Munition“ (loitering munition). Neben verschiedenen Ladungen und Sprengstoffen, mit denen die Kargu-2 ausgestattet werden kann, glänzt das spielzeuggroße Killerinstrument besonders damit, dass es nur von einer Person gesteuert werden kann und sogar gänzlich ohne menschliche Steuerung auskommt. Nach Darstellung von Oberstleutnant Michael Karl vom Bundeswehr-Thinktank GIDS könnten diese Drohnen „mit einer Lernsoftware Rahmendaten über den Gegner zu lernen – beispielsweise Uniformen, Bewaffnung, Gefechtsfahrzeuge und ähnliches“ und dann sogar ohne menschliche Überwachung Ziele angreifen. Entsprechende KI-Technologien des maschinellen Lernens und Sehens werden aktuell auch in Deutschland an vielen zivilen Hochschulen und Forschungsverbünden wie dem Cyber Valley erforscht und weiterentwickelt.

Im Bericht der Expertenkommission wird ein spezifischer Einsatz der Kargu-2 bei der Operation Peace Storm im März 2020 beschrieben, bei dem Soldaten angegriffen wurden und offenbar „weder ausgebildet noch motiviert“ waren, sich „gegen den effektiven Einsatz dieser neuen Technologie zu verteidigen“ und deshalb „überwiegend in Unordnung zurückzogen“. Auch im Rückzug waren sie dabei weiterhin den Angriffen der unbenannten Flugobjekte und autonomen Waffensystemen ausgesetzt.

Moral-befähigte KI

Hier sehen selbst Insider der Sicherheits-Community mögliche Probleme mit internationalem Recht und den Menschenrechten. Dabei gehen diese natürlich meist nicht weiter, als zu fragen, wie Genauigkeit und Zuverlässigkeit sichergestellt und möglicher illegaler Gebrauch reguliert werden könnten. Nach der Genfer Konvention sind Angriffe auf Zivilpersonen und auf Soldaten, die kampfunfähig sind oder sich ergeben haben («hors de combat»), als Kriegsverbrechen zu ahnden. Für das Lieber Institute der amerikanischen Militärakademie West Point erscheint es zumindest fraglich, ob die Zielobjekt-Klassifizierung der KI im Stande ist, zwischen Bauern, die zum Schutz ihrer Felder ein Gewehr tragen, oder Verletzten, deren Gewehr noch auf der Brust liegt, und im Kampf stehenden Soldaten andererseits zu unterscheiden.

Unfähigkeit zu Rückzug, Desertation und Aufgabe

Wie sich die Soldaten im Bewusstsein ihrer Wehrlosigkeit gegenüber einem überlegenen Killerroboter, der keine Gefangenen macht, ergeben sollten, wird wahrscheinlich bisher in keiner Militärakademie gelehrt. Das eigene Überleben zu sichern und das Kämpfen aufzugeben, war sicher nie im Interesse der Feldherren. Den individuellen Menschen, meist sehr jungen Männern und Frauen, diese Freiheit zur Einsicht zu lassen, sollte doch ein Menschenrecht sein. Berichte zum Beispiel von der Front in Bergkarabach, machen deutlich, wie die Angegriffenen ihre Kontrollüberzeugung verlieren und zuerst Opfer ihrer Ohnmacht werden – und dann der Drohne bzw. ihrer Sprengladung.