Killer-Roboter auf dem Vormarsch
Smarte Waffen – das hört sich clever an. Aber dahinter stecken tatsächlich Waffen, die selbst Ziele auswählen und feuern. Verhandler ringen in Genf um ein Verbot solcher Militärsysteme.
„Waffen, über die der Mensch keine Kontrolle mehr hat, lehnen wir ab.“Michael Biontino, UNO-Diplomat
Maschinen, die in den Krieg geschickt werden und selbst Ziele wählen und töten – Fortschritt oder Horrorvorstellung? Was wie ein Science-Fiction-Film klingt, ist längst in der Entwicklung. „Tödliche autonome Waffen“sind gemeint, auch Killerroboter genannt. Das können schießende Roboter, tödliche Drohnen, unbemannte UBoote sein. Sie werden im Kampfeinsatz nicht von Menschen dirigiert, sondern entscheiden autonom, was ein Ziel ist, und feuern tödliche Salven ab. Muss das nicht verboten werden? Darum ringen ab heute, Montag, wieder Diplomaten aus Dutzenden Ländern in Genf.
Kritiker sind höchst alarmiert. „Waffen können nicht zwischen Freund und Feind unterscheiden und gehören auf den völkerrechtlichen Prüfstand“, sagt Thomas Küchenmeister von der deutschen Organisation Facing Finance, Mitglied der internationalen Kampagne gegen Killerroboter („Campaign to Stop Killer Robots“). Eine Entscheidung, Menschenleben auszulöschen, dürfe niemals einer Maschine überlassen werden.
Autonome Waffen werden durch die rasante Entwicklung von künstlicher Intelligenz möglich. Computer lernen anhand von eingefütterten Daten, wie ein Ziel ausschaut, wie es sich bewegt, wann es angegriffen werden soll – und zünden, ohne dass ein Mensch an der Entscheidung noch beteiligt ist.
Zu unterscheiden ist das von automatischen Waffen, etwa „Patriot“-Raketen. Die schießen zwar automatisch, aber das Ziel muss vorher von Menschen genau einprogrammiert werden.
„Es gibt eine Grauzone zwischen automatischen und autonomen Waffen“, sagt Michael Biontino, bis vor Kurzem deutscher Abrüstungsbotschafter in Genf. „Autonome Waffen machen die Zielerkennung selbst, sie haben keine Zielbibliothek gespeichert.“
Es besteht kaum ein Zweifel, dass die USA, Russland, China, Israel, Südkorea und Großbritannien an solchen Systemen arbeiten. Sie existierten schon, sagt Neil Davison vom Internationalen Komitee vom Roten Kreuz (IKRK).
Gemeinsam mit Frankreich hat Deutschland einen Verhaltenskodex vorgeschlagen, wonach alle heutigen und künftigen Waffensystem menschlicher Kontrolle unterliegen müssen. Das sei ein zahnloser Tiger, sagt aber Küchenmeister. „Ein Verhaltenskodex ist nicht völkerrechtlich verbindlich.“Die Kampagne gegen Killerroboter verlangt einen verbindlichen Vertrag. Aber viele Länder wollen sich in ihrer Waffenentwicklung nicht einschränken lassen.
Mehr als 2000 Wissenschafter, die mit künstlicher Intelligenz arbeiten, haben solche Waffen verurteilt. Diese Forscher versprechen, niemals bei der Entwicklung oder Herstellung solcher Waffen mitzuhelfen.