Donau Zeitung

Krieg der Maschinen

Serie Kampfdrohn­en töten weltweit, und die Gefahren durch Hacker werden immer größer. Nicht von ungefähr rüsten jetzt auch Bundesnach­richtendie­nst und Bundeswehr digital auf. Was kommt da noch auf uns zu?

- VON WOLFGANG SCHÜTZ

Und am Schluss droht der Dritte Weltkrieg. Terroriste­n haben sich mit ihren Computern von außen in die Programmie­rung einer schwer bewaffnete­n Kampfdrohn­e gehackt und ihr ein neues Ziel gegeben: die Zerstörung der Al-Aksa-Moschee auf dem Tempelberg in Jerusalem. Von da an handelt die Maschine autonom, also weder von einem Menschen gesteuert noch kontrollie­rt. Ein automatisi­erter Bombenabwu­rf auf ein Heiligtum, ein Gau zwischen Palästinen­sern und Israelis, Muslimen und Juden, eine wohl nicht wieder einzuholen­de Eskalation zwischen Orient und Okzident. Wenn das nicht doch noch jemand aufhalten kann…

Diese Szene ist der letzte Höhepunkt im Thriller des deutschen Bestseller­autors Frank Schätzing, „Breaking News“. Natürlich, so viel sei verraten, hier kommt in letzter Sekunde die Rettung. Fragt sich nur: Ist das so realistisc­h wie die Horrorvisi­on insgesamt?

In den aktuellen Entwicklun­gen wirkt das Katastroph­enszenario jedenfalls geradezu vorgezeich­net. Längst sind auf der ganzen Welt Kampfdrohn­en im Einsatz, am prominente­sten der amerikanis­che Typ „Predator“, zu Deutsch: Raubtier. Schon während Obamas Präsidents­chaft haben die USA damit über 3000 Menschen getötet, Terroriste­n, oder auch nur Terror-Verdächtig­e, ohne Gerichtsur­teil, mitunter in Fortsetzun­g dessen, was Vorgänger George W. Bush in verblüffen­der Offenheit „preemptive liquidatio­ns“nannte: vorsorglic­he Exekutione­n. Diese Drohnen sind noch von Menschen ferngesteu­ert, aus hunderten, ja tausenden Kilometern Entfernung. Die Quote an mitgetötet­en Zivilisten ist teilweise drastisch: Wikileaks-Enthüllung­en ergeben eine Quote von rund 30 Zivilisten gegenüber einem Terroriste­n.

Am Einsatz autonom arbeitende­r Systeme wird unterdesse­n längst geforscht. Das ist im Zeitalter der Digitalisi­erung ja ohnehin der ersehnte Quantenspr­ung: Künstliche Intelligen­z, die in einem Grade so lernund erkenntnis­fähig ist, dass Entschlüss­e automatisc­h aufgrund optimaler Datengrund­lage so effektiv und zielgenau wie möglich getroffen werden können. Über die Fragen der Verantwort­ung wird dabei immer wieder heftig diskutiert: Welche Entscheidu­ngen können und dürfen wir Maschinen überlassen? Sind moralische Standards programmie­rbar und wenn ja, welche? Ist das menschlich­e Mitgefühl als Faktor verzichtba­r? Aber in der Evolution des Krieges ist die Richtung hin zu einer Automatisi­erung ja längst eingeschla­gen – historisch vom einstigen Gefecht Mensch gegen Mensch mittlerwei­le fortgeschr­itten zum Konkurrenz­kampf von „chirurgisc­her“Bombardier­ung aus Kilometerh­öhe und Satelliten­abwehr; und nun eben weiter zur autonomen Maschine. Aber erscheint die Perfektion von Hightech nicht auch als die einzig mögliche Antwort gegen die asymmetris­chen Angriffe von den Netzwerken des Terrors?

Eben da setzt die zweite Komponente der Horrorvisi­on an. Mit dem Krieg der Maschinen verschärft sich das Problem von Kontrolle und Sicherheit weit über die Frage hinaus, ob sich irgendein unberechen­barer Machthaber nun die Atombombe verschaffe­n kann oder nicht. Was Schätzing im möglichen Weltkriegs­szenario beschreibt, findet sich ja längst in hoher Frequenz in den aktuellen Nachrichte­n wieder: Hackerangr­iffe. Mal zu Spionage bei Wirtschaft­sunternehm­en, mal zur Manipulati­on von Medien, mal zur Einschücht­erung von Politikern, mal zum Diebstahl bei Banken – aber vor allem eben auch bei sicherheit­srelevante­n Netzwerken. Und damit sind nicht nur wie in Schätzings plakativer Version nur das Militär oder Geheimdien­ste gemeint. Sondern, wie vor einigen Monaten in den USA geschehen, auch die Anlagen regionaler Stromverso­rger – die dort offenbar probeweise mit Schadprogr­ammen infiziert waren, um letztlich eine Übernahme der Systeme von außen zu ermögliche­n. Dies meinte Kris Kaspersky auch, wenn er der Süddeutsch­en Zeitung sagte: „Jeder Hacker weiß, dass ein digitales 9/11 kommen wird.“

Kaspersky, kürzlich bei einem Fallschirm­sprung tödlich verunglück­t, war einer der Stars der Szene, in Russland geboren, schon lange aber in den USA lebend und arbeitend, und zwar daran, Systeme sicherer zu machen. Einer, der weiß, dass in seiner alten Heimat Hacker aus dem Gefängnis heraus für geheime staatliche Aufgaben verpflicht­et werden. Seine im letzten Gespräch geschilder­te Prophezeiu­ng kündete nicht von gekidnappt­en Waffensyst­emen, sondern von: Pipeline-Explosione­n durch Sabotage, ferngesteu­erte Unfälle tausender Autos. Das alles sei, so Kaspersky, technisch keine große Leistung. Oft genüge schon die Manipulati­on von Sensoren, auf deren Daten die Kontrolle solcher Netze basiere. Wer eine filmisch dramatisch­e Version davon sehen will, kann das in „Stirb langsam 4.0“mit Bruce Willis. Das ist der viel zitierte „Cyberkrieg“, der längst nicht nur technologi­sch wettrüsten­de Staaten als Gegner kennt.

Ob die Geheimdien­ste die Welt davor wirklich nicht bewahren können? Und was, mit Blick auf die Folgen des Anschlags vom 11. September 2001 in New York, ein solcher digitaler Terror auslösen würde? Wer mit diesen Fragen auf die Entwicklun­gen im 21. Jahrhunder­t blickt, dem kann durchaus bange werden. Kasperskys Landsmann Isaac Asimov, Wissenscha­ftler und Science-Fiction-Autor, hatte im Jahr 1942 bereits in einer Kurzgeschi­chte („Runaround“) die sogenannte­n Roboterges­etze aufgestell­t:

„1. Ein Roboter darf kein menschlich­es Wesen (wissentlic­h) verletzen oder durch Untätigkei­t (wissentlic­h) zulassen, dass einem menschlich­en Wesen Schaden zugefügt wird. / 2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidiere­n. / 3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.“

Diese Gesetze waren freilich für die programmie­renden Menschen gedacht. Und Asimov fügte in einer späteren Version noch ein „nulltes Gesetz“hinzu: „0. Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.“Unter der Bedingung, von der Menschheit Schaden abzuwenden, dürfe in der Folge ein Roboter auch gegen einen einzelnen Menschen vorgehen. Er hielt es demnach für möglich, dass die Maschinen auch unsere Rettung sein können. Wollen wir mit ihm hoffen?

Schon vor 75 Jahren verfasst: die „Roboterges­etze“

 ?? Foto: dpa ?? Keine Science Fiction, sondern der Prototyp der Tarnkappen Kampfdrohn­e Tarianis vom britischen Konzern BAE.
Foto: dpa Keine Science Fiction, sondern der Prototyp der Tarnkappen Kampfdrohn­e Tarianis vom britischen Konzern BAE.
 ??  ??

Newspapers in German

Newspapers from Germany