Militär Aktuell nahm kürzlich am Pariser Aktionsgipfel zur Künstlichen Intelligenz (10. – 11. Februar) teil, einer hochkarätigen Veranstaltung des französischen Außenministeriums. Am Rande des Gipfels bot sich an der renommierten École Supérieure de Guerre die Gelegenheit zum Gespräch mit Sofia Romansky, strategische Analystin am The Hague Centre for Strategic Studies und Projektkoordinatorin der Global Commission on Responsible AI in the Military Domain.
Sofia Romansky führte 2022 eine umfassende Untersuchung zur militärischen Nutzung von Informationen während der ersten sieben Monate der russischen Invasion in der Ukraine (-> aktuelle Meldungen aus dem Ukraine-Krieg) durch. Zudem verfasste sie eine Studie zum Schutz europäischer KI-Innovationen, um deren Nutzung in Chinas militärischer Entwicklung zu verhindern.
Frau Romansky, auf dem Aktionsgipfel war oft von KI-Tools die Rede, die in bestimmten Anwendungen menschliche Akteure ersetzen können. Wie genau ist das zu verstehen?
Derzeit sind die meisten KI-Modelle, mit denen wir arbeiten oder über die wir sprechen, auf eine spezifische Aufgabe oder einen klar definierten Anwendungsbereich ausgerichtet.
Also Aufgaben wie Zielverfolgung, Identifikation oder Entscheidungsunterstützung?
Genau. Dabei geben die KI-Tools zunehmend präzisere und relevantere Empfehlungen – das ist ihr Zweck.
Aber nun heißt es, dass auch die Supervision, also die Führung, von KI-Tools übernommen werden könnte?
Ja, weil diese Systeme mehrere Aufgaben gleichzeitig ausführen können und dabei von spezialisierten, singulär arbeitenden KI-Systemen profitieren. Wir sprechen dann von sogenannten Agenten.
Sie koordinieren also, was auf mehreren Ebenen abläuft?
Ja, sie treffen Entscheidungen darüber, wie die untergeordneten Systeme verwaltet werden. Es entsteht eine Art pyramidenförmige Struktur.
Aber ohne Menschen in der Führung? Basiert ihr Wissen denn nicht auf maschinellem Lernen und dem, was ihnen menschliche Betreiber vorgeben?
Es ist eine Kombination. Man kann Menschen einbinden, die die Ergebnisse der Agenten überprüfen, oder man lässt sie autonom agieren – unter der Aufsicht höherer KI-Instanzen. Beides ist möglich. Diese Entwicklung rückt jetzt stärker ins Licht.
Und Ihre Rolle ist es, das zu regulieren oder zumindest Regierungen Orientierung zu geben, worauf sie achten müssen?
Wir setzen Normen und Prinzipien, um den Rahmen für verantwortungsvolle KI zu definieren – nicht in Form harter Vorschriften, sondern als Leitlinien. Die Frage ist: Was ist verantwortungsvolle KI? Sie muss verlässlich bestimmte Aufgaben erfüllen. Erst wenn damit verbundene Standards erfüllt sind, können Staaten und Anwender sie sicher einsetzen.
Und wer sich nicht an diese Parameter hält, bewegt sich in einer Grauzone?
Genau. Es gibt zum Beispiel die Auffassung, dass bestimmte KI-Systeme aufgrund ihrer Unvorhersehbarkeit von Natur aus rechtswidrig sind. Gerade im militärischen Bereich braucht es aber ein gewisses Maß an Vorhersehbarkeit. Wenn ein System zu unberechenbar ist, könnte seine Nutzung gegen humanitäres Völkerrecht verstoßen. Das ist eine der zentralen Fragen, mit denen wir uns beschäftigen.