Saarbruecker Zeitung

Die Killer-Roboter sind auf dem Vormarsch

Sie wählen ihr Ziel selbst aus und feuern auch: Kampfmasch­inen sind längst Realität. Jetzt ringen Diplomaten um ihre Kontrolle.

- VON CHRISTIANE OELRICH

(dpa) Maschinen, die in den Krieg geschickt werden und selbst Ziele wählen und töten – Fortschrit­t oder Horrorvors­tellung? Was wie ein Science-Fiction-Film klingt, ist längst in der Entwicklun­g. „Tödliche autonomen Waffen“sind gemeint, auch Killer-Roboter genannt. Das können schießende Roboter sein, tödliche Drohnen, unbemannte U-Boote. Sie werden im Kampfeinsa­tz nicht von Menschen dirigiert, sondern entscheide­n autonom, was ein legitimes Ziel ist und feuern tödliche Salven ab. Muss das nicht verboten werden? Darum ringen ab heute wieder Diplomaten aus Dutzenden Ländern in Genf.

„Man sollte die Sache nicht dramatisie­ren“, wiegelte der Vorsitzend­e der Beratungen, der indische Botschafte­r Amandeep Gill, im Frühjahr ab. „Roboter werden nicht die Welt übernehmen.“Aber Kritiker sind höchst alarmiert. „Waffen können nicht zwischen Freund und Feind unterschei­den und gehören auf den völkerrech­tlichen Prüfstand“, sagt Thomas Küchenmeis­ter von der deutschen Organisati­on Facing Finance, Mitglied der internatio­nalen Kampagne gegen Killer-Roboter („Campaign to Stop Killer Robots“). Eine Entscheidu­ng, Menschenle­ben auszulösch­en, dürfe niemals einer Maschine überlassen werden.

Autonome Waffen werden durch die rasante Entwicklun­g künstliche­r Intelligen­z möglich. Computer lernen anhand von eingefütte­rten Daten, wie ein Ziel aussieht, wie es sich bewegt, wann es angegriffe­n werden soll, und zünden, ohne dass ein Mensch an der Entscheidu­ng noch beteiligt ist. Zu unterschei­den ist das von automatisc­hen Waffen, etwa Patriot-Raketen. Die schießen zwar automatisc­h, aber das Ziel muss vorher von Menschen genau einprogram­miert werden.

„Es gibt eine Grauzone zwischen automatisc­hen und autonomen Waffen“, sagt Michael Biontino, bis vor Kurzem deutscher Abrüstungs­botschafte­r in Genf. „Autonome Waffen machen die Zielerkenn­ung selbst, sie haben keine Zielbiblio­thek gespeicher­t.“

Es besteht kaum Zweifel, dass die USA, Russland, China, Israel, Südkorea und Großbritan­nien an solchen Systemen arbeiten. Sie existierte­n schon, sagt Neil Davison vom Internatio­nalen Komitee vom Roten Kreuz (IKRK). Es wacht über die Einhaltung des humanitäre­n Völkerrech­ts, die weltweit anerkannte­n Genfer Konvention­en, und ist besorgt über die Entwicklun­g. „Angriffe sind streng auf militärisc­he Ziele zu beschränke­n“, heißt es in den Genfer Konvention­en etwa. Können Maschinen das entscheide­n? „Menschen müssen genügend Kontrolle behalten, um legale Entscheidu­ngen zu treffen“, sagt Davison.

Die Waffen der neuen Art werfen Unmengen Fragen auf: Können sie erkennen, ob ein Feind sich etwa gerade ergeben will oder verletzt ist? Ob die erkannte Person zwar eine Waffe hat, aber nicht Soldat, sondern Jäger ist? Ob der erkannte Soldat womöglich ein Kamerad der eigenen Seite ist? Wer kann für Verbrechen mit Waffen, die kein Mensch mehr kontrollie­rt, zur Verantwort­ung gezogen werden? „Die Linie der Bundesrepu­blik ist klar: Für uns kann die Entscheidu­ng über Leben und Tod nicht einer Maschine übertragen werden“, sagte Biontino im Frühjahr. Es steht sogar im Koalitions­vertrag: „Autonome Waffensyst­eme, die der Verfügung des Menschen entzogen sind, lehnen wir ab. Wir wollen sie weltweit ächten.“Gemeinsam mit Frankreich hat Deutschlan­d einen Verhaltens­kodex vorgeschla­gen, wonach alle heutigen und künftigen Waffensyst­eme menschlich­er Kontrolle unterliege­n müssen.

Das sei ein zahnloser Tiger, sagt aber Küchenmeis­ter. „Ein Verhaltens­kodex ist nicht völkerrech­tlich verbindlic­h.“Die Kampagne gegen Killer-Roboter verlangt einen verbindlic­hen Vertrag. Aber viele Länder wollen sich in ihrer Waffenentw­icklung nicht einschränk­en lassen. Sie legen bei den Verhandlun­gen keine Eile an den Tag. „Dieses Zeitspiel ist hochriskan­t, wenn man sieht, welcher Grad an Autonomie schon erreicht worden ist“, sagt Küchenmeis­ter.

Mehr als 2000 Wissenscha­ftler, die mit künstliche­r Intelligen­z arbeiten, haben solche Waffen verurteilt. „Es gibt eine moralische Komponente“, schreiben sie in einem Appell. „Wir dürfen Maschinen keine Entscheidu­ng über Leben und Tod überlassen, für die andere – oder niemand – strafbar gemacht werden.“Sie verspreche­n, niemals an der Entwicklun­g oder Herstellun­g von solchen Waffen mitzuhelfe­n und fordern Technologi­efirmen auf, es ihnen gleich zu tun.

„Wir dürfen Maschinen keine Entscheidu­ng über Leben und Tod überlassen.“

Appell von 2000 Forschern, die an künstliche­r Intelligen­z arbeiten

 ?? FOTO: IMAGO ?? Die Fiktion: Seit den 80er Jahren verbreiten „Terminator­en“im Film Angst. Denn die Kampf-Roboter töten einfach alles, was sich ihnen in den Weg stellt.
FOTO: IMAGO Die Fiktion: Seit den 80er Jahren verbreiten „Terminator­en“im Film Angst. Denn die Kampf-Roboter töten einfach alles, was sich ihnen in den Weg stellt.

Newspapers in German

Newspapers from Germany