Autor: Jan Roar Beckstrom, leitender Data Scientist, ORKB Norwegen1
Killerroboter, auch bekannt als tödliche autonome Waffensysteme (Lethal Autonomous Weapon Systems; LAWS), gehören nicht der Science-Fiction an. Es gibt sie wirklich. Bald könnten wir KI-gesteuerte Drohnenschwärme haben, bei denen die Drohnen selbst entscheiden, wen sie töten und was sie angreifen. ORKB sollten eine Rolle dabei spielen, die Entwicklung und den Einsatz solcher Waffen gemäß dem Völkerrecht unter menschlicher Kontrolle zu halten.
Einleitung
Stellen Sie sich Folgendes vor: Sie ziehen einen Schwarm sehr kleiner Drohnen heran, bestücken diese mit einem KI-Algorithmus, der darauf trainiert ist, eine bestimmte Art der Militäruniform zu erkennen, fügen 5 Gramm hochexplosiven Sprengstoff hinzu und schicken die Drohnen auf die Jagd nach Feinden mit dem Ziel, diese zu töten.(2) Nachdem die Drohnen gestartet wurden, ist kein Mensch mehr beteiligt, und die Drohnen entscheiden selbst, wen sie ins Visier nehmen und angreifen. Jedoch beschließt eine der Drohnen, einen sich ergebenden Soldaten ins Visier zu nehmen und anschließend zu töten. Dies wäre ein klarer Verstoß gegen das in den Genfer Konventionen festgehaltene humanitäre Völkerrecht.(3)
Oder was ist mit einer Situation, in der ein KI-gesteuertes LAWS beschließt, auf der Grundlage einer falschpositiven Analyse zu handeln und irrtümlicherweise ein ähnliches feindliches System in einem „Kampf der Maschinen“ anzugreifen? Indessen reagiert das feindliche System und ruft noch dazu Verstärkung. Dann könnte es unter Umständen innerhalb von Sekunden zu einem unbeabsichtigten Krieg kommen. Derartige Waffen gehören nicht der Science-Fiction an. Die erforderliche Technologie ist weitestgehend schon verfügbar und die verbleibenden Herausforderungen sind bautechnische Probleme im Bereich Miniaturisierung und Systemintegration.
Das den LAWS innewohnende Potenzial für Tod und Zerstörung sowie für ein neues Wettrüsten kann nicht bedrohlich genug eingeschätzt werden. Ein flächendeckendes Verbot bestimmter LAWS-Arten könnte zwar eine Möglichkeit sein, jedoch ist ein weitreichendes Verbot schwer vorstellbar. Der potenzielle militärische Vorteil, der sich aus derartigen Systemen ergibt, ist für die Regierungen der Welt mit großer Wahrscheinlichkeit viel zu groß und zu verlockend. Eher wird niemand der Einzige ohne sie sein wollen. Daher müssen sie reguliert werden. Regierungen und Streitkräfte müssen für die Forschung zu derartigen Waffen, deren Entwicklung, Beschaffung, Bereitstellung und Verwendung zur Rechenschaft gezogen werden. „Rechenschaftspflicht“ ist das Stichwort für ORKB auf der ganzen Welt, in diesem Bereich tätig zu werden.
Killerroboter – die Technologie
Waffen mit einem bestimmten Grad an Eigenständigkeit gibt es schon seit langer Zeit. Einige einfache Beispiele sind Stolperdrähte, Antipersonenminen und Marschflugkörper. Normalerweise sind das Systeme des Typs „Aufbauen-und-Vergessen“ oder „Abfeuern-und-Vergessen“. So steuert ein Marschflugkörper, sobald sein Ziel programmiert und der Flugkörper abgeschossen wurde, eigenständig das zuvor von Menschen ausgewählte Ziel an. Die Zeitspanne zwischen Abschuss und Einschlag eines Marschflugkörpers ist in der Regel recht begrenzt, was für die Vermeidung ziviler Opfer wichtig ist.
Das Neue an LAWS ist, dass künstliche Intelligenz (KI) Einzug in diesen Bereich gehalten hat. Marschflugkörper werden vorprogrammiert und entscheiden nicht selbst, welches Ziel sie angreifen. KI-gesteuerte Roboter, zum Beispiel Drohnen, können solche Entscheidungen treffen. Folglich sind wir in einer Situation, in der Maschinen, ohne menschliche Intervention, über Leben und Tod entscheiden können.
Dazu müssen die Maschinen mit einem auf maschinellem Lernen basierenden KI-Algorithmus ausgestattet sein. Ziehen Sie Killerdrohnen als Beispiel heran: Durch den Einsatz von maschinellem Lernen können Sie einen Algorithmus zum Beispiel darauf trainieren, zwischen Zivilbevölkerung und Militärangehörigen zu unterscheiden, indem Sie beschriftete Bilder in den Algorithmus einspeisen. Ganz einfach: Bild 1 = „Zivilist“, Bild 2 = „feindlicher Soldat“. Wiederholen Sie das ein paar tausende Male mit ähnlichen Bildern und Sie haben der Maschine beigebracht, zwischen Zivilistinnen bzw. Zivilisten und Soldatinnen bzw. Soldaten zu unterscheiden. Ein derartiger Algorithmus sollte sehr gut (mit etwa 99 % Korrektheit) darin sein, diese beiden Gruppen auseinanderzuhalten. Er unterscheidet sich gar nicht so sehr von einem KI-gesteuerten Spamfilter, der entscheidet, was Spam ist und was nicht.
Eine weitere „Funktion“ von KI-gesteuerten LAWS ist, dass – weil die Maschine gegebenenfalls selbst entscheiden kann, wann sie angreift – sie nicht sofort angreifen muss. Eine Drohne kann „herumtrödeln“, bis die Wahrscheinlichkeit für den größtmöglichen Erfolg einen bestimmten Schwellenwert erreicht: zum Beispiel „veranschlagte Anzahl an Opfern > 5“, vorausberechnet anhand der Entfernung mutmaßlicher feindlicher Soldatinnen und Soldaten im Sichtfeld der Drohnenkamera. Derartige „Funktionen“ könnten für Militärkommandantinnen und -kommandanten aus offensichtlichen Gründen von Interesse sein.
Sinnvolle menschliche Kontrolle
Eine wichtige Maxime im Völkerrecht besagt, dass man sich als Soldatin bzw. Soldat, die bzw. der eine Feindin bzw. einen Feind tötet, dessen bewusst sein sollte. Menschenleben sollten nicht leichtfertig genommen werden, auch nicht im Krieg. Die Bedeutung des menschlichen Handelns gilt für die gesamte militärische Befehlskette und bedeutet, dass der Einsatz tödlicher Waffen unter sogenannter „sinnvoller menschlicher Kontrolle“ stehen sollte.(4)
Die Entwicklung und der Einsatz autonomer Waffen bergen das Potenzial, dies grundlegend zu verändern. Eine KI-gesteuerte Maschine, die eigenständig die Entscheidung trifft, Zivilist A anstatt Soldatin B zu töten, kann nicht an den Internationalen Strafgerichtshof in Den Haag übergeben werden. Zu töten oder nicht zu töten ist keine moralische Frage für eine Maschine, sondern bloß eine von einem Algorithmus angestellte Wahrscheinlichkeitsrechnung. Wer sollte also zur Rechenschaft gezogen werden? Die Kommandantin bzw. der Kommandant, die bzw. der den fehlerhaften Killerroboter einsetzt? Das Verteidigungsministerium, welches das System beschafft hat oder für dessen Entwicklung aufgekommen ist? Der zivile Auftragnehmer, der den fehlerhaften Algorithmus entwickelt hat? Dies sind wichtige, aber noch ungeklärte Fragen.
Darüber hinaus sollten Streitkräfte gemäß humanitärem Völkerrecht nicht mehr Gewalt als für die Erreichung eines militärischen Ziels erforderlich anwenden.(5) Dadurch erlangt die Waffenauswahl Bedeutung und gerät in Abhängigkeit des operativen Verständnisses. Daher ist die Zeitspanne zwischen dem Einsatz einer Waffe und deren Auswirkung von Bedeutung. Wenn eine Kommandantin bzw. ein Kommandant eine autonome Waffe einsetzt, deren Angriffszeitpunkt ihr bzw. ihm nicht wirklich bekannt ist, wird es schwierig, zu wissen, ob die besagte Waffe angesichts der über die Situation bekannten Informationen die richtige Wahl war. Zusätzlich zur Tatsache, dass man keine wirkliche Kontrolle darüber hat, ob ein Mitglied des Militärs oder der Zivilbevölkerung ins Visier genommen wird.
Killerroboter und die Rolle von ORKB
Im Jahr 2015 verabschiedete die Generalversammlung der Vereinten Nationen anlässlich ihrer 69. Versammlung die Resolution 69/228 über die „Förderung und Unterstützung der Effizienz, Rechenschaftspflicht, Wirksamkeit und Transparenz der öffentlichen Verwaltung durch die Stärkung der Obersten Rechnungskontrollbehörden“.(6)
Darin erkennt die Generalversammlung der Vereinten Nationen an, „dass Oberste Rechnungskontrollbehörden bei der Förderung einer effizienten, rechenschaftspflichtigen, wirksamen und transparenten öffentlichen Verwaltung eine wichtige Rolle spielen“.
Eines der Hauptmerkmale eines Staats und seiner Regierung ist, dass er bei der Verteidigung der territorialen Grenzen des Landes eine Monopolstellung hinsichtlich des Einsatzes militärischer Mittel hat. Die Landesverteidigung ist als solche ein zentraler Teil der öffentlichen Verwaltung, den ORKB im Auftrag des Parlaments prüfen müssen. Der Handlungsspielraum für Prüferinnen und Prüfer kann sich dabei nicht auf die administrativeren und bürokratischeren Teile des Verteidigungssektors beschränken. Er muss sich ebenfalls auf die operativen und „gefechtsnahen“ Teile erstrecken, da das die Bereiche sind, in denen sich Effizienz, Rechenschaftspflicht und Wirksamkeit der Landesverteidigung zuerst zeigen. Zudem ist der Verteidigungssektor (naturgemäß) von einem hohen Maß an Geheimniskrämerei umgeben, was an sich schon ein Grund ist, dass sich ORKB mit dem Verteidigungssektor befassen sollten, um im Auftrag des Parlaments für Rechenschaftspflicht zu sorgen. Grundsätzlich fördert Transparenz Rechenschaftspflicht.
Dennoch schrecken ORKB oft vor der Raison d‘Être der Landesverteidigung zurück: dem möglichen Einsatz militärischer Mittel, inklusive der Frage, welche Waffen entwickelt, beschafft und eingesetzt werden. Krieg ist brutal. Im Grunde genommen geht es darum, den Feind zu besiegen, indem man die Soldatinnen und Soldaten der Gegenseite tötet. Wie ein Krieg zu führen ist, ist im humanitären Völkerrecht, wie es in den vier Genfer Konventionen mit Zusatzprotokollen kodifiziert wurde, geregelt. Diese Konventionen und insbesondere das Zusatzprotokoll I (ZPI) setzen die „Regeln für Krieg“ fest.
Ist es nicht ein bisschen weit hergeholt, dass eine ORKB prüfen kann, welche Waffen entwickelt werden und schlussendlich zum Einsatz kommen? Ich denke nicht. Wenn ein Land einschlägige völkerrechtliche Abkommen ratifiziert hat, können ORKB diese als Prüfungsmaßstäbe verwenden.
Beispielsweise legt Artikel 36 – „Neue Waffen“ des ZPI fest, dass
„jede Hohe Vertragspartei verpflichtet ist, bei der Prüfung, Entwicklung, Beschaffung oder Einführung neuer Waffen oder neuer Mittel oder Methoden der Kriegsführung festzustellen, ob ihre Verwendung stets oder unter bestimmten Umständen durch dieses Protokoll oder durch eine andere auf die Hohe Vertragspartei anwendbare Regel des Völkerrechts verboten wäre.“
Daher sollten neue Waffensysteme, einschließlich LAWS, einer Prüfung unterzogen werden, wenn sie entwickelt, beschafft oder eingeführt werden, um zu entscheiden, ob deren Verwendung im Rahmen eines Krieges legal ist. Das ist eine Anforderung, deren Erfüllung ORKB überprüfen können.
Darüber hinaus legt Artikel 57 – „Vorsichtsmaßnahmen beim Angriff“ des ZPI Folgendes fest. Ein Angreifer hat
„bei der Wahl der Angriffsmittel und -methoden alle praktisch möglichen Vorsichtsmaßnahmen zu treffen, um Verluste unter der Zivilbevölkerung, die Verwundung von Zivilpersonen und die Beschädigung ziviler Objekte, die dadurch mit verursacht werden könnten, zu vermeiden und in jedem Fall auf ein Mindestmaß zu beschränken.“
und
„Ein Angriff ist endgültig oder vorläufig einzustellen, wenn sich erweist, dass sein Ziel nicht militärischer Art ist.“
Wenn wir beginnen, tödliche autonome Maschinen einzusetzen, welche die Entscheidung über Leben und Tod auf eine Wahrscheinlichkeitsrechnung reduzieren, können wir uns dann sicher sein, dass eine Maschine „alle praktisch möglichen Vorsichtsmaßnahmen trifft“, um die Zivilbevölkerung zu verschonen? Wie stellen wir Rechenschaftspflicht für die Einstellung eines Angriffs auf ein nichtmilitärisches Ziel sicher, wenn die Maschine selbst entscheidet, ob sie angreift oder nicht? Sind wir im Begriff, die sinnvolle menschliche Kontrolle über tödliche Waffen zu verlieren?
Dies sind entscheidende Fragen, die viel zu wichtig sind, als dass man deren Klärung dem Verteidigungssektor selbst überlassen könnte. Es gibt keine Rechenschaftspflicht ohne externe Kontrolle. Das bedeutet, dass eine ORKB eine der wenigen nationalen Institutionen ist, welche die Regierung und den Verteidigungssektor für die Entwicklung, Beschaffung, Einführung und letztendlich den Einsatz von autonomen Killerrobotern zur Rechenschaft ziehen können. LAWS können die Welt potenziell zu einem viel gefährlicheren Ort machen. Noch können ORKB definitiv eine entscheidende Rolle für die Minderung der mit LAWS einhergehenden Gefahren und Risiken spielen. Wir müssen uns der Herausforderung stellen.