Mit „How to (not) build the Terminator” hielt Frank Sauer von der Universität der Bundeswehr (München) in der Konrad Adenauer Stiftung Wien einen anschaulichen Vortrag über aktuelle und absehbare Entwicklungen von Waffensystemen. Kommentiert wurde der Vortrag vom Drohnen-Experten Oberst Markus Reisner (-> Im Interview: „Wir schreiben gerade Geschichte”). Militär Aktuell durfte beim vielbeschäftigten Politikwissenschaftler nachfragen.
Herr Doktor, wir haben in Ihrem Vortrag von raschen Entwicklungen in der Autonomie von Waffensystemen erfahren. Die automatisierte Zielerkennung ist inzwischen überall anzutreffen. Wohin geht nun Ihrer Meinung nach die Entwicklung in der Autonomie von Waffensystemen?
Die Entwicklung ist nicht mehr aufzuhalten. In der präventiven Regulierung hätte man vielleicht vor zehn Jahren mit sehr viel Engagement etwas wirklich Nachhaltiges tun können. Worauf ich heute aber zumindest noch hoffe, ist, dass es genügend größere Schlüsselspieler, besonders in der NATO, gibt, die eine verantwortungsbewusste Anwendung dieser Technologien als Norm setzen. Damit könnten gewisse Leitplanken vorgegeben werden. Am Horizont sehe ich aktuell aber keine verbindliche und breit getragene vertragliche Einigung, die weitreichende Konsequenzen hätte.
Wird uns eines Tages ein Szenario drohen, wie wir es aus der „Terminator”-Filmreihe kennen, in dem Roboter einen Krieg gegen Menschen führen?
Wenn wir mal von dem Bild eines durch die Straßen stapfenden „Terminators” weggehen, dann würde ich sagen: Das ist ja schon der Fall. Denken wir an Loitering Munitions, die zunächst noch ohne bestimmten Zielkoordinaten starten, dann aber mithilfe automatisierter Zielerkennung zuschlagen (-> Die Lancet-Krise; -> Shahed Jet-Drohne bereits im Einsatz). Die Vorstellung von gegen Menschen kämpfenden, zweibeinigen Killerrobotern ist aber sehr weit weg. In Bezug auf die Autonomie in Waffensystemen habe ich wirklich viele andere vorgelagerte Sorgen, bevor ich an den Terminator denke.
In Ihrem Vortrag verdeutlichten Sie auch die Rolle von kleinen privaten oder studentischen Projektentwicklungen im Bereich von Drohnen beziehungsweise der Zielerkennung. Welche Formen von Kontrolle ist in Zeiten von 3D-Druckern und dem automatisierten Erstellen von Programmiercodes durch eine öffentlich zugängliche Künstliche Intelligenz überhaupt möglich?
Man kann die Technologie nicht kontrollieren. Das wäre auch nicht wünschenswert. Man kann auch kaum über Export-Kontrolle regulieren. Auf höchster staatlicher Ebene kann etwas erreicht werden, wenn wir uns etwa ansehen, wie weit die Biden-Administration in Sachen Sanktionen im Bereich Halbleiter gegen China geht (-> US-Senat verabschiedet „Anti-China-Gesetz”; -> Kleine Bauteile mit großen Auswirkungen). Die beste Lösung ist deswegen, sich auf Anwendungsregeln zu einigen.
„Wir müssen mit dem Sterben im Krieg unser Gewissen belassen. Wir müssen wissen, wer da wo und unter welchen Umständen durch unser Handeln stirbt.“
Inwiefern?
Ein Beispiel ist die Regulierung von Bio- und Chemiewaffen. In diesen Konventionen wird nicht kategorisch definiert, was Bio- und Chemiewaffen sind und was nicht. Sie regulieren die Anwendung. So ähnlich muss man auch Rüstungskontrolle für Waffensysteme mit autonomen Fähigkeiten betrachten. Es geht hier darum, „meaningful human control” – also wirksame menschliche Kontrolle und Urteilskraft – in Mensch-Maschine-Zusammenspiel auf dem Schlachtfeld zu gewährleisten. Das bedeutet Vorhersehbarkeit, Administrierbarkeit und Zurechenbarkeit von Verantwortung. Zahlreiche Länder haben auch inzwischen entsprechende Doktrinen entwickelt. Das Problem ist weniger kompliziert als oft behauptet wird.
In Ihrem Vortrag erwähnten Sie die Möglichkeit, dass wir Waffensysteme – völlig technisiert – beinahe vom menschlichen Mitwirken trennen könnten. Nimmt uns die Autonomie in den Waffensystemen in der Hinsicht den Krieg ab, dass wir das Gefühl für ihn verlieren?
Selbst wenn wir, mal rein hypothetisch, den Krieg auf automatisierte Waffensysteme gänzlich auslagern könnten – der Krieg würde uns am Ende dann doch einholen. Denn der ihm zugrunde liegende Konflikt besteht ja zwischen uns Menschen. Ich halte generell nichts von dem Gedanken, den Maschinen den Krieg zu übergeben, um uns dann nicht mehr damit zu beschäftigen. Ganz im Gegenteil: Wir sollten das gar nicht versuchen, weil es viele negative Begleiterscheinungen mit sich bringen würde. Ich plädiere also für ein anderes Leitmotiv: Wir müssen mit dem Sterben im Krieg unser Gewissen belassen. Wir müssen wissen, wer da wo und unter welchen Umständen durch unser Handeln stirbt.
Hier geht es zu den anderen Beiträgen unserer Serie „5 Fragen an”.