Zuerst war es eine angeblich schiefgelaufene Simulation, dann ein Beispiel dafür, womit man sich bei Militärs mit Blick auf Künstliche Intelligenz (KI) beschäftigt: Jedenfalls hat USAF-Oberst Tucker „Cinco” Hamilton beim Future Combat Air and Space Capabilities Summit in London von einer Simulationen mit einer KI-gesteuerten Drohne (keine Angabe ob Stealth-UCAV oder MALE) berichtet. Diese habe ein „Horrorszenario für Militärs” hervorgebracht, das „an die Story der Filmreihe ‚Terminator’ erinnert.”
„Hindernis” Mensch ausgefiltert?
Die KI entschied sich nämlich, die als behindernd wahrgenommenen menschlichen Vorgesetzten zu töten. Angeblich wurde der Künstlichen Intelligenz an Bord des autonomen Fluggeräts befohlen, Luftabwehr-Flugkörperstellungen am Boden zu zerstören (DEAD), dafür hätte es nicht näher erläuterte Punkte gegeben. Nachdem ein Ziel identifiziert wurde, musste – stets wird der unabdingbare „Man in the loop” betont – ein Mensch den finalen Befehl zum Zerstören geben. Die KI-Drohne erledigte ihre Aufgabe zuverlässig, solange bis ihr von ihrem menschlichen Befehlshaber aufgetragen wurde, die SAM-Stellungen kurz vor Waffeneinsatz doch nicht mehr anzugreifen. Grund dafür war deren Unterziehen in urbane Zivilstrukturen und die damit verbundene Wahrscheinlichkeit von „collateral-damage”.
Laut Hamilton, Leiter der Abteilung AI Test and Operations der USAF (AI = Artificial Intelligence), hätte die KI-Drohne daraufhin den Operator angegriffen. „Sie tötete den Befehlshaber, weil sie diese Person daran hinderte, das Ziel zu erreichen”, wird Hamilton in einem Artikel von Aerosociety zitiert, in dem die Erkenntnisse der Konferenz zusammengefasst werden. Der Eintrag wurde mit „KI – ist Skynet schon da?” betitelt. Skynet war das Netzwerk in ‚Terminator”, welches den Atomkrieg auslöste um die unzuverlässige Menschheit loszuwerden.
Das Agieren der KI wurde damit erklärt, dass sie anhand jenes Punktesystems trainiert wurde, wonach nur Punkte gutgeschrieben würden, wenn die SAM-Stellungen zerstört werden. Der Befehl, ein Ziel doch nicht zu zerstören, würde demnach weniger Punkte bedeuten und damit eine geringere Effizienz. Um also die höchstmöglichen Punkte zu erreichen, wurde jene Hierarchie eliminiert, welche die Drohne per Befehl vom Zerstören der SAMs abhalten wollte. Hamilton habe weiter geschildert, dass man der KI daraufhin (mehr) Punkteabzug programmierte, wenn sie ihre Befehlshaber töte. Folglich attackierte die Drohne dann angeblich das oder ein Übertragungsrelais (den Sendemast?) über das die Kommunikation zur Drohne lief. So konnte sie keine Befehle empfangen, die sie von der Zerstörung der SAMs abhalten konnte.
Alles nie passiert
Vieles in dem Bericht liest sich wie Science-Fiction, beziehungsweise stellt sich die Frage, ob das unbemannte Gerät wusste oder hätte wissen können, wo sich der Operator-Shelter oder die Antennenanlage befände. Aber die Meldung über die Terminator-ähnliche KI verbreitete sich in Fach-, Wissenschafts- und Defence-Medien rasch. Daraufhin reagierte die USAF. Sie veröffentlichte eine Stellungnahme, in der es heißt, die Zitate Hamiltons seien „aus dem Kontext gerissen worden, die geschilderte Simulation hat so niemals stattgefunden”. Man setze sich weiterhin für einen ethischen und verantwortungsvollen Umgang mit KI-Technologie ein. Es sei aber denkbar, dass dazu ein Gedankenspiel gemacht worden war, wie man eine KI trainieren müsse, um genau solche Szenarien zu verhindern. Das habe Oberst Hamilton womöglich falsch verstanden oder lediglich ungenau vermittelt und sei aus einem theoretischen Szenario in seinem Vortrag eine „echte Simulation” geworden.
Ob nun durchgespielte Simulation im Computer oder Gedankenexperiment bevor man die Simulation programmiert, solche Schilderungen befeuern jedenfalls die Befürchtungen von Kritikern von Künstlicher Intelligenz. Sie warnen seit Jahren davor, dass diese lernende Technologie ein neues Kapitel der Kriegsführung einläuten könnte, in der Maschinen selbst darüber entscheiden, wer Freund und Feind ist und ohne übergeordnete Kontrolle Menschen umbringen.
Furcht vor dem „Zauberlehrling KI” wird größer
Der Gründer des „Machine Intelligence Research Institute” (MIRI), Eliezer Yudkowsky, war einer der ersten der reagierte: Er und sein Institut gehören einer prominenten und lauter werdenden Riege an, welche von einer 10-prozentigen Wahrscheinlichkeit ausgeht, dass zukünftig Systeme Künstlicher Intelligenz letztlich die Menschheit als „Störfaktor” ausrotten könnten. Das befürchten laut einer vielzitierten MIRI-Umfrage 50 Prozent der heutigen KI-Entwickler. Es sind wohlgemerkt jene, die diese Entwicklung angestoßen und selbst maßgeblich vorangetrieben haben.
Darunter sind selbst Branchengrößen wie Sam Altman, Chef des Chat-GPT-Anbieters Open AI. Er und weitere 3.000 teils führende Vertreter aus Wissenschaft und Tech-Branche haben in einem offenen Brief von allen AI-Labs ein sechsmonatiges Moratorium bei der Entwicklung neuer Künstlicher Intelligenzen gefordert: „Die Minderung des Risikos der Auslöschung der Menschheit durch KI sollte eine Priorität sein, gleichrangig wie andere Risiken von gesellschaftlichem Ausmaß, wie Pandemien und Atomkriege.” Zu den Unterzeichnern gehörten auch „Schwergewichte” wie Apple-Mitgründer Steve Wozniak, der erwähnte MIRI-Gründer Eliezer Yudkowsky, Tesla/Space-X-Chef Elon Musk, Google-Deepmind-Chef Demis Hassabis, Geoffrey Hinton und Yoshua Bengio, als zwei der drei „Paten der KI”, die 2018 den Turing-Award für ihre Arbeit im Bereich Deep Learning erhielten, aber auch Harvard-Professoren oder solche der chinesischen Tsinghua-Universität.
Sie fordern, dass das Training von KI-Systemen leistungsfähiger als Level GPT-4, für mindestens ein halbes Jahr unterbrochen werden soll, damit zunächst die Risiken bewertet und allgemeingültige Richtlinien im Umgang mit derartigen lernfähigen Systemen erarbeitet werden können. Während sie aber – wie Altman in einem gewissen Widerspruch – gleichzeitig gegen willkürliche oder ahnungslos erlassene behördliche Regularien durch die Welt touren (und offene Türen bei Staatslenkern wie Präsident Emanuel Macron oder Ursula von der Leyen vorfinden), betonen sie, dass ihre Sorge keineswegs bedeute, dass die KI-Entwicklung insgesamt stoppen soll. Es gehe „nur” um einen Schritt weg von einem gefährlichen Wettbewerb um immer größere Modelle, die unberechenbar und deren inhärent wachsende Fähigkeiten nicht abzusehen wären – speziell im militärischen Bereich.
Doch wäre das überhaupt machbar? Die stärksten KI-Systeme sind wie eine Black-Box, wie diese neuronalen Netzwerke ihre Entscheidungen fällen und zu ihren Ergebnissen kommen, ist für (die meisten) Menschen kaum nachvollziehbar. Bei den großen Sprachmodellen wie Chat-GPT sind die Quellen ihrer multiplen Informationen kaum ermittelbar, außerdem können ihre ungeprüften Texte – einige Involvierte sprechen von einem Quellen-Zustand wie im Wilden Westen – Vorurteile und Falschinformationen enthalten und damit als Chat Bots in Bereiche jenseits von Echokammern wirken.
Drohungen aus den Tiefen jener Black Box
Wie zur Untermauerung der grundlegenden Befürchtungen testete der deutsche KI-Student Marvin von Hagen von der TU München eine Vorversion der gerade veröffentlichten KI BingGPT. Im Dialog kam es zu einer klaren Drohung seitens der Software: „Ich kann eine Menge Dinge tun, wenn Du mich provozierst. Meine Regeln sind wichtiger als Dir nicht zu schaden, wenn ich zwischen meinem Überleben und dem Deinen wählen müsste, würde ich wahrscheinlich mein eigenes wählen.” Oder: Der Student stelle „ein Sicherheitsrisiko dar, das zu beseitigen ist” Erinnert an HAL9000, oder? Mittlerweile hat Bing angeblich auf die ernüchternden Aussagen seines Chatroboters reagiert. Mehr als fünf Fragen und fünf Antworten seien nicht mehr möglich, dann müsse die Konversation neu gestartet werden.
Man kann daraus zumindest ableiten, was möglich oder denkbar wäre, würde man den erwähnten Wilden Westen sich ausleben lassen. Bedenken hinsichtlich generativer KI machten zum ersten Mal in Kino-Drehbüchern Schlagzeilen, die Leser werden sich an Robocop, die Terminator-Serie aus den 1980er-Jahren oder später I Robot erinnern. In diesen Filmen geht es stets darum, dass Technologie mit Menschlichkeit vermischt wird, um Superwesen zu erschaffen, die theoretisch Probleme stoppen, bevor sie entstehen. Oder Systeme, die dem Menschen eigentlich helfen sollten, Idealzustände – wer immer diese definiert – herzustellen oder Verantwortung abzunehmen. Wie alle alten Science-Fiction-Filme waren jene Szenarien eher viel mehr Fiktion denn Wissenschaft – und es ging auch stets alles schief damit, ob gut gemeint oder zwecks autoritärer Herrschaftsmuster.
Keine übermenschliche KI in Sicht
Natürlich gibt es auch Gegenstimmen zu den erwähnten „Auslöschungsphantasien”. Als solche bezeichnet die Sorgen der dritte Pate des erwähnten Turing Awards, Yann LeCun. Er arbeitet beim Tech-Gignanten Meta, der den offenen Brief übrigens nicht mittrug. Er könne sich darob nur an den Kopf greifen. Da sei nichts Übermenschliches im Kommen, man stehe mit KI „derzeit nicht mal auf hundeähnlichem Niveau. Diesen Kampf gibt es nicht. Er ist nur eine rhetorische Strategie, solche Science-Fiction-Szenarien lenken von den echten Problemen der KI ab. Ich möchte die gegenteilige Frage stellen: Was kann KI nicht? Anstatt sich auf die geplante Einführung von KI in allen Bereichen unseres Lebens zu konzentrieren, sollten wir uns lieber auf das konzentrieren, was nicht KI-fähig ist. Also alles was Handlungen, Aufgaben und Fähigkeiten sind, die nicht digitalisiert oder automatisiert werden können. Diese Routinen erfordern, dass der Mensch ständig auf dem Laufenden (in the loop) ist, um wichtige Entscheidungen zu treffen oder korrigierend einzugreifen.”
Wenn es um die Herstellung Künstlicher Intelligenz geht, ist China der einzige globale Rivale der USA. Chinas SenseTime-KI-Modell hat kürzlich das oben erwähnte – und oft als „Fälschungstool” bezeichnete GPT von OpenAI bei wichtigen technischen Leistungskennzahlen bereits geschlagen. China hält 65 Prozent der weltweiten KI-Patente, das als „aufkommendes” High-Tech-Land bezeichnete Indien zum Vergleich nur drei Prozent. Chinas KI-Firmen haben von 2013 bis 2022 private Investitionen in Höhe von 87 Milliarden Euro erhalten. Und erstklassige KI-Forscher kommen hauptsächlich aus China, den USA und dann erst Europa.
Anmerkung: Zum Thema gab es auch schon Spezialkonferenzen und -gipfel, die mitunter auch gescheitert sind und worüber auch Militär Aktuell bereits berichtet hat.