Der Krieg der Algorithmen
Bald könnten KI-gesteuerte Waffensysteme die Schlachtfelder dominieren. Doch die entsprechende Regulierung hängt dem rasanten technischen Fortschritt hinterher.
Nach dem Treffer der ungelenkten Bombe bleibt zumeist kaum etwas über. Dort, wo früher ein Haus gestanden ist, ragen noch einzelne Stahlbetonsteher nach oben, dazwischen liegen Trümmer, Schutt und die zusammengefalteten Stockwerksdecken. Wer immer sich auch in dem Gebäude befand, hatte so gut wie keine Überlebenschance.
Seit Kriegsbeginn vor mehr als sechs Monaten hat die israelische Armee im Gazastreifen Tausende Häuser, in denen sie Hamas-Kämpfer vermutete, auf diese Weise dem Erdboden gleichgemacht. Die Entscheidung, welches Objekt zum Ziel werden soll, treffen dabei aber längst nicht nur hoch spezialisierte Geheimdienstoffiziere.
So hat Israel laut Recherchen des „Guardian“und des „+972 Magazine“vor allem in der Anfangsphase des Krieges auf eine „Lavender“getaufte künstliche Intelligenz (KI) zurückgegriffen, deren Algorithmus im Sekundentakt Dutzende potenzielle
Angriffsziele ausspuckte. Allein in den ersten Wochen sollen so knapp 37.000 Palästinenser identifiziert worden sein, die aufgrund ihrer Verbindungen zur Hamas oder dem Islamischen Dschihad auf der Liste der israelischen Armee landeten.
Das israelische Lavender-System mag derzeit die fortschrittlichste militärische KI-Anwendung sein, sie ist aber bei Weitem nicht die einzige. Experten zufolge verfügen auch die Drohnen, die im Ukrainekrieg Jagd auf gegnerische Panzer und Infanterieeinheiten machen, bereits über rudimentäre KI-Fähigkeiten. So sollen einige Varianten in der Lage sein, Ziele autonom auszuwählen oder ihre Mission auch dann noch fortzuführen, wenn der Kontakt mit dem Piloten verloren geht.
Der Fortschritt passiert dabei rasend schnell, schon in wenigen Jahren könnten die Schlachtfelder von autonom agierenden und miteinander vernetzten Killerrobotern dominiert werden, die ihre Ziele nach Eingabe gewisser Grundparameter
ohne jedes menschliches Zutun suchen und finden. Mit der technischen Entwicklung nicht Schritt halten können allerdings die Bemühungen um ein zumindest grundlegendes Regelkorsett. Seit zehn Jahren wird zwar in Genf in einem UNGremium darüber diskutiert, welche fundamentalen Konsequenzen es hat, wenn künftig nicht mehr der Mensch, sondern eine Maschine über Leben oder Tod entscheidet, doch von ers
ten konkreten Regulierungsschritten ist man aber nach wie vor meilenweit entfernt.
Auf Österreichs Betreiben soll es nun aber einen neuen großen Anlauf geben. Am kommenden Montag und Dienstag findet unter dem Titel „Humanity at the Crossroads: Autonomous Weapons Systems and the Challenge of Regulation“eine große Konferenz in der Wiener Hofburg statt, bei der knapp tausend
Teilnehmer aus rund 130 Staaten über mögliche Ansätze bei der Regulierung autonomer Waffensysteme beraten werden. Auf Einladung von Außenminister Alexander Schallenberg kommen auch mehrere seiner Amtskollegen nach Wien, um sich zu dem hochkomplexen Thema auszutauschen.
Für Alexander Kmentt, Leiter der Abteilung für Abrüstung und Rüstungskontrolle im österreichischen Außenministerium
und treibende Kraft hinter der Wiener Konferenz, geht es in der Hofburg aber gar nicht mehr so sehr um ein Totalverbot autonomer Waffensysteme. „Das Fenster für Prävention hat sich nahezu geschlossen“, erläutert Kmentt mit Blick auf den sich stetig beschleunigenden KIRüstungswettlauf zur Kleinen Zeitung. Wichtig sei jetzt vor allem, die menschliche Letztverantwortung international zu verankern und das durch die KI entstehende, hohe Tempo der militärischen Entscheidungsprozesse zu bremsen.
Wie sehr die Schlagzahl der künstlichen Intelligenz den Menschen unter Druck bringt und Fragen der Verhältnismäßigkeit nach hinten rückt, habe etwa schon die Erfahrung mit dem israelischen Lavender-System gezeigt. „Du gehst sofort von einem Angriff zum nächsten über“, sagte ein israelischer Soldat gegenüber dem „Guardian“, „denn mit dem KI-System endet die Zielauswahl nie. Auf der Liste warten schon die nächsten 36.000.“
Die drohende Gefahr, dass die Maschine über den Menschen hinauswächst, könnte aus Sicht der österreichischen Konferenzorganisatoren aber auch der entscheidende Hebel für eine zukünftige Regulierung sein. „Es ist fraglich, ob Systeme im Interesse des Militärs sind, deren Handlung vielleicht irgendwann nicht mehr vorhersehbar sind und die man möglicherweise nicht einmal mehr selbst versteht“, betont Kmentt.