„Oppenheimer-Moment unserer Generation“
Künstliche Intelligenz entwickelt sich rasant weiter. Auch in Waffensystemen. Wie Staaten sie einsetzen, ist nicht die einzige Sorge.
Österreichs Außenminister Alexander Schallenberg eröffnete am Montag mit eindringlichen Worten eine internationale Konferenz zur Regulierung von autonomen Waffensystemen in Wien. Wir seien „am Oppenheimer-Moment unserer Generation“, sagte er Bezug nehmend auf den „Vater“der Atombombe, Robert Oppenheimer. Als dieser die Schrecklichkeit seiner Erfindung erkannte, fürchtete er, sie könnte in ein Wettrüsten und sogar zur Zerstörung der Welt führen.
„KI wird Kriege sogar verlängern.“
Programmierer
Momentan sei es sogar noch schlimmer, meinte Schallenberg in Hinblick auf autonome Waffensysteme, die immer öfter künstliche Intelligenz einsetzen: Die Technologie entwickle sich in rasender Geschwindigkeit und sei billig. Die Politik aber hinke bei der Regulierung hinterher. Verbindliche internationale Regeln für den Einsatz von KI in Waffensystemen gibt es noch nicht. Wie sie aussehen könnten und wie nötig sie sind, darüber sprachen am Montag gut 900 Teilnehmerinnen und Teilnehmer aus 142 Staaten in der Wiener Hofburg.
Es gehe nicht darum, technikfeindlich zu sein, „es geht darum, nicht naiv zu sein“, sagte Schallenberg. Dem wurden die Debatten am Montag gerecht. Man wisse, dass „heutige Armeen, vor allem die der größeren Staaten, sehr, sehr viel in diese künstliche Intelligenz und die Unterstützung von Waffensystemen investieren“, sagte Mirjana Spoljaric Egger, die Präsidentin des Komitees vom Internationalen Roten Kreuz. Das Kernproblem dabei sei der Verlust von Kontrolle über die Anwendung von Gewalt. Auch die Sorge, die Waffensysteme könnten in die Hände von Terroristen und anderen kriminellen, nicht staatlichen Akteuren kommen, war in allen Diskussionen zu hören.
„Wir können autonomen Waffensystemen nicht erlauben, auf Menschen zu zielen“, sagte Jaan Tallinn, Programmierer und Mitbegründer des Zentrums für Risikostudien an der Universität Cambridge, im Eingangsbeitrag der Konferenz. Er warnte, diese Waffensysteme hätten das Potenzial, „eine Welt zu schaffen, wo es nicht länger sicher sein wird, draußen zu sein“.
Tallinn, der unter anderem mit der Entwicklung von Skype bekannt geworden ist, zeigte sich auch skeptisch, was die vermeintlichen Vorteile vom Einsatz autonomer Waffensysteme im Krieg betrifft. Es gebe Versprechen, dass es dadurch weniger Truppen brauche.
Kriege endeten aber dann, wenn eine oder beide Seiten die Kosten als zu hoch einschätzten. Deshalb könne man „vorhersagen, dass Autonomie in Waffen Kriege einfach nur verlängern“werde. Der Einsatz von KI verringere nämlich die Kosten. Gleichzeitig sagte Tallinn, man sehe dort, wo solche Systeme in Konfliktregionen schon im Einsatz seien, viele zivile Opfer.
Zivile Opfer zu vermeiden ist ein Gebot, das im humanitären Völkerrecht schon heute festgeschrieben ist. Insofern, erinnerte Spoljaric Egger, operierten autonome Waffensysteme ja nicht im rechtsfreien Raum. Alle Regeln des Kriegs- und Völkerrechts gelten für deren Einsatz. Trotzdem wird ein eigener Vertrag zu autonomen Waffensystemen angestrebt. „Solche Verträge retten Leben“, sagte Spoljaric Egger.
Aber durch das Fehlen eines solchen Vertrags über autonome Waffensysteme „haben sich die Tore zur Hölle wieder geöffnet“, die mit völkerrechtlichen Verträgen nach dem Zweiten Weltkrieg geschlossen wurden, sagte Agnès Callamard, die Generalsekretärin von Amnesty International, am Montag. Maschinen würden Menschen als Datenpunkte betrachten. Eine „echte menschliche Kontrolle“, die international verbindlich ist, sei daher notwendig. „Was wir sehen wollen, ist, dass die tatsächlichen Verhandlungen über einen Vertrag beginnen“, sagte Callamard in Wien. „Wir sind hier, um Sie aufzurufen, jetzt zu handeln“, wandte sie sich an die offiziellen Vertreter aus mehr als 100 anwesenden Staaten.
Jaan Tallinn, „Die Tore zur Hölle sind wieder offen.“