Krieg der Maschinen
Serie Kampfdrohnen töten weltweit, und die Gefahren durch Hacker werden immer größer. Nicht von ungefähr rüsten jetzt auch Bundesnachrichtendienst und Bundeswehr digital auf. Was kommt da noch auf uns zu?
Und am Schluss droht der Dritte Weltkrieg. Terroristen haben sich mit ihren Computern von außen in die Programmierung einer schwer bewaffneten Kampfdrohne gehackt und ihr ein neues Ziel gegeben: die Zerstörung der Al-Aksa-Moschee auf dem Tempelberg in Jerusalem. Von da an handelt die Maschine autonom, also weder von einem Menschen gesteuert noch kontrolliert. Ein automatisierter Bombenabwurf auf ein Heiligtum, ein Gau zwischen Palästinensern und Israelis, Muslimen und Juden, eine wohl nicht wieder einzuholende Eskalation zwischen Orient und Okzident. Wenn das nicht doch noch jemand aufhalten kann…
Diese Szene ist der letzte Höhepunkt im Thriller des deutschen Bestsellerautors Frank Schätzing, „Breaking News“. Natürlich, so viel sei verraten, hier kommt in letzter Sekunde die Rettung. Fragt sich nur: Ist das so realistisch wie die Horrorvision insgesamt?
In den aktuellen Entwicklungen wirkt das Katastrophenszenario jedenfalls geradezu vorgezeichnet. Längst sind auf der ganzen Welt Kampfdrohnen im Einsatz, am prominentesten der amerikanische Typ „Predator“, zu Deutsch: Raubtier. Schon während Obamas Präsidentschaft haben die USA damit über 3000 Menschen getötet, Terroristen, oder auch nur Terror-Verdächtige, ohne Gerichtsurteil, mitunter in Fortsetzung dessen, was Vorgänger George W. Bush in verblüffender Offenheit „preemptive liquidations“nannte: vorsorgliche Exekutionen. Diese Drohnen sind noch von Menschen ferngesteuert, aus hunderten, ja tausenden Kilometern Entfernung. Die Quote an mitgetöteten Zivilisten ist teilweise drastisch: Wikileaks-Enthüllungen ergeben eine Quote von rund 30 Zivilisten gegenüber einem Terroristen.
Am Einsatz autonom arbeitender Systeme wird unterdessen längst geforscht. Das ist im Zeitalter der Digitalisierung ja ohnehin der ersehnte Quantensprung: Künstliche Intelligenz, die in einem Grade so lernund erkenntnisfähig ist, dass Entschlüsse automatisch aufgrund optimaler Datengrundlage so effektiv und zielgenau wie möglich getroffen werden können. Über die Fragen der Verantwortung wird dabei immer wieder heftig diskutiert: Welche Entscheidungen können und dürfen wir Maschinen überlassen? Sind moralische Standards programmierbar und wenn ja, welche? Ist das menschliche Mitgefühl als Faktor verzichtbar? Aber in der Evolution des Krieges ist die Richtung hin zu einer Automatisierung ja längst eingeschlagen – historisch vom einstigen Gefecht Mensch gegen Mensch mittlerweile fortgeschritten zum Konkurrenzkampf von „chirurgischer“Bombardierung aus Kilometerhöhe und Satellitenabwehr; und nun eben weiter zur autonomen Maschine. Aber erscheint die Perfektion von Hightech nicht auch als die einzig mögliche Antwort gegen die asymmetrischen Angriffe von den Netzwerken des Terrors?
Eben da setzt die zweite Komponente der Horrorvision an. Mit dem Krieg der Maschinen verschärft sich das Problem von Kontrolle und Sicherheit weit über die Frage hinaus, ob sich irgendein unberechenbarer Machthaber nun die Atombombe verschaffen kann oder nicht. Was Schätzing im möglichen Weltkriegsszenario beschreibt, findet sich ja längst in hoher Frequenz in den aktuellen Nachrichten wieder: Hackerangriffe. Mal zu Spionage bei Wirtschaftsunternehmen, mal zur Manipulation von Medien, mal zur Einschüchterung von Politikern, mal zum Diebstahl bei Banken – aber vor allem eben auch bei sicherheitsrelevanten Netzwerken. Und damit sind nicht nur wie in Schätzings plakativer Version nur das Militär oder Geheimdienste gemeint. Sondern, wie vor einigen Monaten in den USA geschehen, auch die Anlagen regionaler Stromversorger – die dort offenbar probeweise mit Schadprogrammen infiziert waren, um letztlich eine Übernahme der Systeme von außen zu ermöglichen. Dies meinte Kris Kaspersky auch, wenn er der Süddeutschen Zeitung sagte: „Jeder Hacker weiß, dass ein digitales 9/11 kommen wird.“
Kaspersky, kürzlich bei einem Fallschirmsprung tödlich verunglückt, war einer der Stars der Szene, in Russland geboren, schon lange aber in den USA lebend und arbeitend, und zwar daran, Systeme sicherer zu machen. Einer, der weiß, dass in seiner alten Heimat Hacker aus dem Gefängnis heraus für geheime staatliche Aufgaben verpflichtet werden. Seine im letzten Gespräch geschilderte Prophezeiung kündete nicht von gekidnappten Waffensystemen, sondern von: Pipeline-Explosionen durch Sabotage, ferngesteuerte Unfälle tausender Autos. Das alles sei, so Kaspersky, technisch keine große Leistung. Oft genüge schon die Manipulation von Sensoren, auf deren Daten die Kontrolle solcher Netze basiere. Wer eine filmisch dramatische Version davon sehen will, kann das in „Stirb langsam 4.0“mit Bruce Willis. Das ist der viel zitierte „Cyberkrieg“, der längst nicht nur technologisch wettrüstende Staaten als Gegner kennt.
Ob die Geheimdienste die Welt davor wirklich nicht bewahren können? Und was, mit Blick auf die Folgen des Anschlags vom 11. September 2001 in New York, ein solcher digitaler Terror auslösen würde? Wer mit diesen Fragen auf die Entwicklungen im 21. Jahrhundert blickt, dem kann durchaus bange werden. Kasperskys Landsmann Isaac Asimov, Wissenschaftler und Science-Fiction-Autor, hatte im Jahr 1942 bereits in einer Kurzgeschichte („Runaround“) die sogenannten Robotergesetze aufgestellt:
„1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird. / 2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren. / 3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.“
Diese Gesetze waren freilich für die programmierenden Menschen gedacht. Und Asimov fügte in einer späteren Version noch ein „nulltes Gesetz“hinzu: „0. Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.“Unter der Bedingung, von der Menschheit Schaden abzuwenden, dürfe in der Folge ein Roboter auch gegen einen einzelnen Menschen vorgehen. Er hielt es demnach für möglich, dass die Maschinen auch unsere Rettung sein können. Wollen wir mit ihm hoffen?
Schon vor 75 Jahren verfasst: die „Robotergesetze“