Killerroboter: Wie können wir sie stoppen?

Sie treffen schneller Entscheidungen und sind akkurater in der Ausführung. Das sind Argumente für die Entwicklung, Produktion und Nutzung vollautonomer Waffen, der Killerroboter.
Argumente, die für mich als Mitglied von WILPF, der ältesten Frauenfriedensorganisation, die sich seit über 100 Jahren gegen den Einsatz von Waffen jeglicher Art einsetzt, eh nicht gelten. Doch neben den von Deutschland entsandten Waffen, die derzeit weltweit Menschenleben einfordern, stehen wir aktuell vor einem ganz anderen Problem:
Die Entwicklung von Waffensystemen, die Ziele ohne menschliche Kontrolle auswählen und bekämpfen können, schreitet ungebremst voran. Insbesondere die USA, Russland, Nordkorea, Israel und die Türkei arbeiten fleißig daran, obwohl einschlägige Expert*innen, wie Menschenrechtsaktivist*innen, Wissenschaftler*innen und Entwickler*innen auf der ganzen Welt davor warnen.
Menschliche Kontrolle von Waffensystemen ist aufgrund einer Vielzahl moralischer, ethischer, rechtlicher, operationeller und technischer Bedenken zwingend notwendig. Ich will nur ein paar davon nennen:
- Wie sich wahrscheinlich jede und jeder von Ihnen ohne Probleme vorstellen kann, fehlen Waffensystemen jegliche menschliche Charakteristika, um ethische Entscheidungen zu treffen. Das Fehlen von Mitgefühl und Empathie ist in diesem Fall aber höchst problematisch. Die Systeme verletzen die Würde des Menschen zutiefst, weil sie nicht verstehen was es bedeutet einen Menschen zu töten. Ohne dieses Verständnis wird der anvisierte Mensch jedoch zu einem reinen Datensatz, einem Objekt.
- Die Nutzung von Killerrobotern kann dazu führen, dass in Zukunft schneller in den Krieg gezogen wird. Niedrige Verluste in der eigenen Truppe und eine sinkende Zahl der öffentlich sichtbaren Opfer, führen zu einer vermeintlichen Kostensenkung für das Militär. Damit sinkt auch die Hemmschwelle einen Krieg zu führen. In der Konsequenz werden die Kosten für alle anderen jedoch deutlich erhöht!
- Weiterhin muss beachtet werden, dass die den vollautonomen Waffensystemen zugrundeliegenden Algorithmen aufgrund von Trainingsdaten entwickelt werden. Wenn diese Daten allerdings nicht der Realität entsprechen, kann es aufgrund von Fehlinterpretationen versehentlich zu Angriffen auf Zivilist*innen kommen. Es fehlt in der aktuellen politischen Debatte eindeutig an gesichertem Wissen über die der Robotik zugrundeliegenden Technologie.
- Kommen wir zur Schwierigkeit der Verantwortlichkeit. Wer ist denn eigentlich für Kriegsschäden verantwortlich, die durch Killerroboter entstehen? Militärkommandant*innen? Programmierer*innen? Und wer zahlt für Kriegsverbrechen, wenn niemand verantwortlich gemacht werden kann? Diese Rechenschaftslücke macht es unmöglich, Gerechtigkeit zu gewährleisten, und Geschädigte zu unterstützen.
- Nicht zu vergessen ist, dass vollautonome Waffensysteme ein erhebliches Sicherheitsrisiko darstellen, weil sie durch Cyberattacken oder Hacking manipuliert werden können.
Aus all diesen Gründen haben sich Mitarbeiter*innen von Tech-Unternehmen bereits gegen vollautonome Waffensysteme ausgesprochen und organisiert, wie man am Protest gegen das von Google unterstützte Projekt Maven sehen kann. Google-Mitarbeiter*innen protestierten dagegen, dass das Unternehmen dem Pentagon Künstliche Intelligenz für Überwachungsdrohnen bereitstellt und Google kündigte daraufhin den Vertrag.
Meinungsumfragen zeigen immer wieder, dass der Großteil der Menschheit darüber entsetzt ist, dass bald Maschinen über Leben- und Tod entscheiden können. In Deutschland sprechen sich allein 72% der Befragten gegen vollautonome Waffen aus. Und diese Abneigung zeigt sich auch in der Zahl der Unterstützer*innen der Campaign to Stop Killer Robots, die sich im letzten Jahr fast verdoppelt hat.
Als Mitglied einer feministischen Organisation, die Teil dieser Kampagne ist, möchte ich ihnen ein paar Punkte aufzeigen, die gegen Killer Roboter sprechen, in der Debatte aber oft vergessen werden:
- Wir wissen inzwischen, dass Technologien nie neutral oder unvoreingenommen sind. Sie sind soziale Konstruktionen, die bestehende Machtverhältnisse, Herrschaft und Diskriminierung widerspiegeln. Sie können genauso sexistisch und rassistisch sein wie Menschen. Und das sehen wir bereits an der Existenz diskriminierender Software. Ein gutes, besser gesagt sehr schlechtes Beispiel dafür ist Googles Bilderkennungssoftware, die eine Schwarze Frau als Gorilla identifizierte. Diskriminierungen wie diese, die bei verschiedenen sogenannten künstlichen Intelligenzen bereits nachgewiesen wurden, werden auch vor der Software von Killer Robotern nicht stoppen. Das Bias, welches bei der Programmierung von Zielprofilen entsteht, führt auf jeden Fall zu Menschenrechtsverletzungen, und es ist wahrscheinlich, dass Menschen in Zukunft -mehr als ohnehin schon- aufgrund von Geschlecht, Hautfarbe oder anderen diskriminierenden Kriterien sterben müssen.
- Des weiteren muss die Entwicklung von Killer Robotern im Kontext von Profit gesehen werden. Wir steuern einer Zukunft entgegen, in der reiche High-Tech-Länder ärmere Länder mit Hilfe von Killer Robotern unterdrücken.
- Zu allem Überfluss wird argumentiert, vollautonome Waffensysteme seien von Vorteil für Frauen in Kriegsgebieten, da sie nicht vergewaltigen können. Ich frage mich jedoch, woher dieses Verständnis kommt. Natürlich können vollautonome Waffen so programmiert werden, dass sie vergewaltigen. Und noch schlimmer: eine vollautonome Waffe, die programmiert ist um zu vergewaltigen, wird nicht zögern dies auch zu tun.
Ende August fand das letzte Treffen der UN-Regierungsexpert*innengruppe (GGE) für tödliche autonome Waffensysteme (LAWS) in Genf statt. Der dort entworfene Abschlussbericht, seine Schlussfolgerungen und Empfehlungen werden die künftige Ausrichtung des internationalen Vorgehens bei vollautonomen Waffen bestimmen. „In dieser Hinsicht sieht es düster aus“, kommentierte Ray Acheson den Bericht. Sie ist Direktorin unseres Abrüstungsprogramms und ich kann ihr da nur zustimmen. Der Abschlussbericht ist enttäuschend und in Bezug auf das zukünftige Vorgehen anspruchslos. Er gibt zwar an, dass die Gruppe in den nächsten 2 Jahren zusammentreten wird, um die Diskussionen über vollautonome Waffen fortzusetzen. Übersetzt heißt das allerdings: Zwei weitere Jahre unregulierte Weiterentwicklung von Waffensystemen mit vollautonomen Fähigkeiten.
Im Abschlussbericht fehlt der Ausdruck menschliche Kontrolle komplett. Und das ist kein Zufall. Dass in dem Bericht, das wichtigste Konzept – die menschliche Kontrolle- fehlt, zeigt deutlich, dass die Interessen der militärisch mächtigsten Regierungen weiterhin die Interessen der restlichen Welt übertrumpfen. Regierungen wie die der USA und Russlands, setzen sich gegen die Verwendung des Ausdrucks ein, denn sie sind bereits dabei, die Systeme zu entwickeln.
Bisher haben sich 29 Staaten der Vereinten Nationen für ein Verbot von Killer Robotern ausgesprochen. Deutschland gehört nicht dazu! In diesem Zusammenhang muss man dem Auswärtigen Amt wohl Heuchelei unterstellen, da es sich in öffentlichen Statements für die Ächtung von Killer Robotern ausspricht. Obwohl auch der geltende Koalitionsvertrag die Ächtung unterstützt, sprach sich die deutsche Vertretung in Genf nicht für ein Verbot aus.
Wir können nicht hinnehmen, dass die deutsche Regierung, die voranschreitende Entwicklung von Killer Robotern unterstützt, in dem sie nichts tut! Um einer Zukunft zu entgehen, die nicht nur von erschwerten klimatischen Bedingungen, sondern auch von Tötungsmaschinen mit künstlicher Intelligenz bestimmt wird, müssen vollautonome Waffensysteme jetzt verboten werden. Deshalb fordern wir dazu auf:
- Auf die Stimmen von Techniker*innen, KI-Expert*innen, dem UN-Generalsekretär, Nobelpreisträger*innen und der Zivilgesellschaft zu hören;
- und die Entwicklung, Produktion und den Einsatz vollautonomer Waffensysteme zu verbieten;
- sowie die Verhandlungen für ein rechtsverbindliches internationales Instrument – einen Verbotsvertrag – aufzunehmen, bevor es zu spät ist!
Von Marieke Eilers
____
Dieser Text wurde ursprünglich am 23. September 2019 auf der Veranstaltung „Killer Roboter: Wie können wir sie stoppen?“ vorgetragen. Die Veranstaltung wurde vom Centre for Feminist Foreign Policy (CFFP), Facing Finance und der Deutschen Friedensgesellschaft-Internationale der KriegsdienstgegnerInnen (DFG-VK) in Kooperation mit der Heinrich-Böll-Stiftung und der IFFF organisiert.
Weitere Informationen zu dem Thema bietet der WILPF Guide to Killer Robots.