Wie KI militärisch verantwortungsvoll eingesetzt werden kann (FAZ 23.9.24)

Von Patrick Glauner und Andreas Leupold

Im vergangenen Jahr fand der erste Responsible AI for the Military Domain Summit (REAIM) in den Niederlanden statt. Es folgte ein zweiter REAIM Summit in Seoul, an dem Vertreter aus mehr als 90 Staaten die Auswirkungen von KI auf die internationale Sicherheitslage und den Einsatz von autonomen Waffensystemen (AWS) erörterten.

Das öffentliche Meinungsbild zu dieser Frage ist noch vielfach durch von Filmwerken befeuerte Ängste vor einem menschlichen Kontrollverlust über vermeintliche „Killer-Roboter“ und ein mangelndes Verständnis von KI geprägt. Eine im Mai von der Bundesregierung im Deutschen Bundestag beantwortete Kleine Anfrage ergab, dass sich die Bundesregierung für die Ächtung vollautonomer letaler Waffensysteme einsetzt, die außerhalb menschlicher Kontrolle operieren, sowie für die Regulierung von Waffensystemen mit autonomen Funktionen.

Der kürzlich in der EU verabschiedete AI Act gilt aber unter anderem ausdrücklich nicht für KI-Systeme, wenn und soweit sie ausschließlich für militärische Zwecke, Verteidigungszwecke oder Zwecke der nationalen Sicherheit in Verkehr gebracht, in Betrieb genommen oder verwendet werden. Potentielle Gegner der
demokratischen Staatengemeinschaft arbeiten aktuell jedoch aktiv an Entwicklung und Einsatz von AWS. Die Folgen einer Überregulierung wären fraglos fatal, da sie die Verteidigungsbereitschaft westlicher Demokratien gegenüber autokratischen Systemen und Terrororganisationen schwächen würde, die vor einem Missbrauch von KI zur Durchsetzung ihrer Interessen nicht zurückschrecken.
Und die sich auch nicht an Verbote halten
werden, mit denen sich der technische
Fortschritt nicht aufhalten lässt.

Wir haben auf dem REAIM Summit die
Breakout Session „Mission Possible: Deploying
responsible and effective autonomous
weapon systems without overregulation“
veranstaltet, um die Debatte mitzugestalten.
Dabei haben wir die Gefahren einer Überregulierung von AWS aufgezeigt und eine praktikable Alternative skizziert.
Angesichts der schnellen Fortschritte im Bereich KI und AWS sind für uns die folgenden Fragestellungen entscheidend:
Braucht es zusätzliche Regulierung für militärische KI (und wenn ja, welche Regulierung)?
Welche Instrumente gewährleisten
die Einhaltung des Humanitären Völkerrechts
(International Humanitarian Law,
kurz IHL) durch AWS? Wie beeinflussen
Beweislasten den Einsatz von AWS?
Im Rahmen der Veranstaltung haben
wir unsere Positionen zu diesen Fragestellungen
vorgestellt und sie mit den Teilnehmern
diskutiert. Wir sind der Ansicht, dass
Überregulierung im Stil des AI Act vermieden
werden muss und bessere Risikomanagementstrategien
essenziell sind.
Unserer Ansicht nach sind KI-Systeme mit
der passenden Methodik grundsätzlich sicher
und transparent.
Wie aus dem Kreis der Gipfelteilnehmer
zu Recht geäußert wurde, muss deshalb
zunächst eine verstärkte Aufklärung
darüber geleistet werden, dass KI-Systeme
für den militärischen Einsatz so entwickelt
werden können, dass sie eine sichere Nutzung
ermöglichen. Der Einsatz von AWS
erfolgt unserer Ansicht nach nicht etwa in
einem rechtsfreien Raum, da das geltende
Völkerrecht auch für neue AWS gilt und
für deren Einsatz bewährte Grundsätze
bereithält, die von den Vertragsstaaten
entgegen anderer Darstellung gerade auch
bei der Nutzung von KI zur Verteidigung
eingehalten werden müssen und eingehalten
werden können.
Um eine informierte Entscheidung über
die Frage der Erforderlichkeit einer weiteren
Regulierung von AWS treffen zu können,
wird man sich unserer Meinung nach
in der sicherheitspolitischen Diskussion
jedoch von der Vorstellung lösen müssen,
dass in allen realistischen und militärisch
sinnvollen Anwendungsfällen für AWS
von einer Überlegenheit des menschlichen
Geistes und menschlichen Reaktionsvermögens
auszugehen sei, die eine fortlaufende
Überprüfung sämtlicher Aktionen
solcher Systeme durch einen menschlichen
Entscheidungsträger („human in the
loop“) erfordere.
Würde man dem nachgeben, so würde
dies auf ein De-facto-Pauschalverbot von
AWS hinauslaufen, die sich nach der aktuellen
Definition der Expertengruppe der
Vereinten Nationen zur UN-Waffenkonvention
gerade dadurch auszeichnen, dass
sie nach ihrer Aktivierung ohne weitere
Intervention durch einen menschlichen
Nutzer selbständig Ziele identifizieren, auswählen
und angreifen können. Dann könnten
AWS auch nicht mehr in Gebieten eingesetzt
werden, in denen die Netzwerkinfrastruktur
durch Angriffe des Gegners so
beschädigt oder funktionsuntüchtig gemacht
wurde, dass keine Verbindung zu militärisch
relevanten KI-Systemen mehr aufgebaut
werden kann, obwohl eine Abwehr
weiterer Angriffe ebendies erfordern würde.
Auch dort, wo schon heute große
Datenmengen in Echtzeit ausgewertet werden
müssen, um Angriffen wirksam begegnen
zu können, und dort, wo Entscheidungen
von KI-Systemen in Bruchteilen von
Sekunden getroffen werden müssen, weil
jede Entscheidung durch einen Menschen
zu spät kommen würde, um die Vernichtung
von Menschenleben oder Angriffe auf
kritische Infrastrukturen (KRITIS) wie die
Energie- und Wasserversorgung und medizinische
Versorgung verhindern zu können,
werden AWS unverzichtbar sein.
Einen wichtigen Beitrag zur Sicherheit
von AWS kann unserer Meinung nach zudem
das neue EU-Produkthaftungsrecht
leisten, das seine Geltung ausdrücklich auf
Software erstreckt und die Fähigkeit von
Produkten berücksichtigt, „nach Einsatzbeginn
weiter zu lernen“. Haftungsrechtliche
Fragestellungen beim Einsatz von AWS
sind somit keine unmögliche Aufgabe, denn
das Produkthaftungsrecht verlangt keine
absolute Fehlerfreiheit, sondern befreit den
Hersteller von der Haftung, wenn der Produktfehler
nach dem wissenschaftlichen
und technischen Kenntnisstand zum Zeitpunkt
des Inverkehrbringens, der Inbetriebnahme
des Produkts, oder solange sich das
Produkt unter der Kontrolle des Herstellers
befand, nicht entdeckt werden konnte.
Die Aufgabe, sich mit der Befürchtung
einer – tatsächlich nur vermeintlich – unkontrollierbaren
KI auseinanderzusetzen,
hat der REAIM Summit erfüllt, zugleich
aber Raum dafür gegeben, solchen Ängsten
ein realistisches Bild von den Chancen
und Grenzen einer Technologie entgegenzusetzen,
die wie keine andere das Potential
hat, künftige Angriffskriege zu verhindern
und die internationale Sicherheit zu
gewährleisten, wenn sie nicht Opfer einer
Überregulierung wird. In ihrem Abschlusspapier
haben die teilnehmenden
Minister einen Vorschlag für die künftigen
Rahmenbedingungen zum militärischen
Einsatz von KI unterbreitet, der zeigt, dass
ein verantwortungsvoller Umgang mit KI
auch in diesem Bereich möglich ist. Erreicht
werden soll dies mit einem Fahrplan,
der auf die Einhaltung internationalen
Rechts, die Verantwortlichkeit von
Menschen für den richtigen Einsatz zuverlässiger
und vertrauenswürdiger KI, eine
angemessene menschliche Beteiligung
und eine verbesserte Erklärbarkeit von KISystemen
setzt.

FAZ vom MONTAG, 23. SEPTEMBER 2024 · NR. 222 · SEITE 18
 

Schreib‘ uns, wir freuen uns über Deine Nachricht!