Autonome Mordmaschinen
In Genf begann eine UN-Konferenz zur Ächtung sogenannter autonomer Waffensysteme
In Genf verhandeln Experten über die Ächtung von Killer-Robotern.
Vertreter aus über 75 Ländern erörtern seit Montag in Genf, wie »tödliche autonome Waffen« international geächtet werden können. Bis Ende der Woche sollen Wege zu einem Vertrag geebnet werden. Auf jeder halbwegs der Zukunft zugewandten Industriemesse kann man sich überzeugen: Künstliche Intelligenz wird das menschliche Dasein in bisher noch ungekannter Art und Weise verändern. Da die Ursachen von Kriegen bestehen bleiben oder sich sogar noch vervielfachen, wandelt sich auch der Charakter dieser – laut Clausewitz – »Politik mit anderen Mitteln«.
Davon sind die meisten von der UNO nach Genf eingeladenen Experten überzeugt und wollen solch unheilvollen Technologie, die zu neuem Wettrüsten führen können, einen Riegel vorschieben. Vorbild sind dabei mehr oder minder erfolgreiche internationale Vereinbarungen zur Ächtung oder Eindämmung von Massenvernichtungsmitteln. Ob das auch in Sachen künstliche Intelligenz gelingt?
Noch behält sich der Menschentypus »General« oder »Politiker« das letzte Wort bei der Entscheidung über Leben und Tod vor, noch setzen die Staaten zunehmend »nur« automati- sierte, weil unbemannte Systeme ein. Beispiel Drohnen. Derzeit verfügen die Streitkräfte von knapp einhundert Staaten über unbemannte Luftfahrzeuge, die vielfach einsetzbar sind. Rund zwei Dutzend dieser Staaten lassen bewaffnete oder bewaffnungsfähige Drohnen aufsteigen. Demnächst gehört Deutschland dazu. Auch im Bereich der Marine sind solche Systeme zur Aufklärung, U-Boot-Abwehr, Minensuche, zur Unterstützung verdeckter Operationen sowie zur Verbesserung der Kommunikation bis in die Erdumlaufbahn hinaus im Einsatz. Demnächst wollen die USA beispielsweise unbemannte Kampfjets von Bord ihrer Flugzeugträger einsetzen. Die Heeresverbände der meisten entwickelten Industriestaaten stehen dem Einsatz solcher hochtechnologischen Systeme nicht nach. Deren Wirkung verstärkt sich durch den Einsatz diverser Cybertechnologien.
Nicht Waffen, sondern Menschen töten. Noch stimmt diese Aussage. Doch, so warnen Zukunftsforscher: Es steht die dritte Revolution der Waffentechnik bevor. Nach der Erfindung des Schießpulvers und der Entwicklung von Atomwaffen kämen nun letale autonome Waffensysteme als Bedrohung auf die Menschheit zu. Derzeit sind fliegende Drohnen groß wie gewöhnliche Luftfahrzeuge. Man braucht viele Menschen, einschließ- lich eines erdgebundenen Piloten, um sie einzusetzen.
Das vor Augen, erinnere man sich an die Eröffnungszeremonie der Olympischen Winterspiele 2018 im südkoreanischen Pyeongchang. Die US-Firma Intel brachte ein faszinierendes »Ballett« in die Luft. Ein Schwarm von 1200 mit LED-Leuchtkörpern ausgestatteten Drohnen for-
mierte sich zu Figuren, beispielsweise den olympischen Ringen. Man muss die LEDs nur durch wenige Gramm leichte Sprengstoffpäckchen ersetzen, die Drohnen mit einem Gesichtserkennungssystem oder ähnlichem ausstatten und so einen Schwarm in eine – möglicherweise sogar urbane – Kampfarena schicken. Im Gegensatz zu Hitchcocks »Vögeln« sind solche Slaughterbots-Angriffe nicht nur mit herkömmlichen Waffen kombinier- bar, sondern auch beliebig skalierbar. Man kann mit chirurgischer Präzision einzelne Personen ausschalten oder ganze Regionen entvölkern. Das geschieht – anders als bei aktuellen besatzungslosen Systemen – ohne einen Finger am Abzugsknopf.
Die lernfähigen autonomen Waffensysteme der Zukunft führen ihre Aufgaben ohne menschliches Eingreifen aus. Ist so ein System erst einmal aktiv, trifft es seine Entscheidungen selbst. Der Akt des Mordens ist fortan nicht mehr eine Angelegenheit zwischen Menschen, sondern zwischen Maschinen und Menschen.
Auch Vorstufen des Einsatzes solcher Systeme sind automatisierbar. Dank umfangreicher Sensorik und leistungsfähigen Computern lassen sich große Datenmengen sammeln. Die sind nach bisherigen Methoden – Generale vor einer Landkarte – nicht mehr zu bewältigen. Also legt man einmal Analyse- und Einsatzverfahren fest, kombiniert sie, impliziert ihnen »Lerneifer« und lässt so Maschinen optimale Maßnahmen entwickeln und ausführen. Interessanter Nebeneffekt für staatlich sanktionierte Mörder: Wer sollte da wen für Kriegsverbrechen zur Verantwortung ziehen? Bereits jetzt gehen Militärs – methodisch und oft noch mit analogen Systemen – zur weitgehend selbstständige Auftragserfüllung über. Das sogenannte »Mission Command« erhält zunehmend Bedeutung.
Gegen die Hoffnungen zum Verbot solcher autonomen, weil intelligenten Waffen stemmen sich vor allem solche Staaten, die in deren Entwicklung bereits vorangekommen sind: die USA, China, Russland, Israel und Großbritannien beispielsweise. Und Südkorea. Das hat einen simplen Grund. Er erklärt auch, weshalb eine erfolgreiche Entspannungspolitik zwischen den beiden koreanischen Nachbarn nicht nur die Gefahr eines Nuklearkrieges mindern könnte. Die hochsensible Grenze zwischen Nord- und Südkorea ist rund 250 Kilometer lang. Um sie zu überwachen werden jährlich bis zu 120 000 Soldaten eingesetzt. Nicht eingerechnet sind hoch mobile und schwer bewaffnet Einsatzkräfte, die im Fall einer besonderen Situation rasch verlegt werden müssten. Intelligente Drohnen oder notfalls ein ganzer Schwarm dagegen …
Deutschland hat eine eindeutige Position zu diesen Waffen der Zukunft. Die steht sogar im Koalitionsvertrag: »Autonome Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen wir ab. Wir wollen sie weltweit ächten.« Dumm nur, dass solche Koalitionsverträge nicht allzu verbindlich sind und nur für ein paar Jahre gelten.