Was dürfen Roboter?
Künstliche Intelligenz braucht ethische Grenzen. Die Justizminister diskutieren über „rote Linien“
Der Widerstand gegen „Projekt Maven“war groß. Google, so schrieben die eigenen IT-Ingenieure, solle nicht Teil des gefährlichen Geschäfts mit Kriegen sein. Mehr als 4000 Mitarbeiter unterzeichneten einen Brief an die Leitung des Internetkonzerns. Der Protest richtete sich gegen eine Zusammenarbeit von Google mit dem US-Militär.
Das Projekt: Mithilfe von Google-Software soll Videomaterial nach militärischen Zielen ausgewertet werden, das von unbewaffneten Drohnen aufgenommen wurde. Diese Kooperation mit der Armee gefährde die Marke Google, schrieben die Mitarbeiter. Die Unterzeichner sahen eine „rote Linie“bei ihren Programmen zur künstlichen Intelligenz überschritten.
Der Fall zeigt: Je weiter der Einsatz von künstlicher Intelligenz (KI) fortschreitet, desto drängender wird die Frage nach ethischen Regeln für lernende Systeme. Auch in Deutschland: In einem Antrag für die Justizministerkonferenz werden nun „rote Linien“gefordert.
Was ist künstliche Intelligenz?
Künstliche Intelligenz, kurz KI, ist längst in unserem Alltag angekommen: ob bei der Gesichtserkennung im Smartphone, bei der Einparkhilfe im Auto oder bei der besseren Diagnose von Krankheitsbildern in der Medizin. Oder eben Roboter im Militär, die Einsätze autonom und ohne einen steuernden Befehlshaber durchführen. Die Idee der „intelligenten“Systeme: Daten, Algorithmen und Rechnerleistungen befähigen Maschinen und Programme, selbst zu lernen und besser zu werden.
Welche Regeln sollen gelten?
In Deutschland, aber auch EUweit geht es um eine schwierige Abwägung: Künstliche Intelligenz hat ein enormes ökonomisches Potenzial – gleichzeitig müssen die Interessen von Privatpersonen geschützt und die Werte der Zivilgesellschaft gewahrt bleiben. Die im Herbst 2018 beschlossene KI-Strategie der Bundesregierung hat zum Ziel, Deutschland zu einem führenden KI-Standort zu machen, eine verantwortungsvolle Nutzung der Technologie sicherzustellen und KI „ethisch, rechtlich, kulturell und institutionell“in die Gesellschaft einzubetten. Kritik daran kommt von zwei Seiten: Während Grüne und Linke eher vor den Risiken und Gefahren der KI-Technologie warnen, etwa in der Kriegsführung, aber auch beim Datenschutz, beklagt die Branche zu wenig Unterstützung. Der Vorsitzende des KI Bundesverbands, Jörg Bienert, forderte am Mittwoch eine entschlossenere strategische Planung der Bundesregierung bei der Förderung künstlicher Intelligenz. „Es gibt mehr als 77 Einzelmaßnahmen, aber keine klare Umsetzungsstrategie.“
Auch im Bundestag befasst sich seit 2018 eine EnqueteKommission mit den Chancen und Herausforderungen der KI. „KI darf nie eingesetzt werden, um Menschen zu schaden“, sagte Christoph Bernstiel, CDU-Experte für Cybersicherheit, unserer Redaktion. Es brauche ein klares Regelwerk. Wichtig sei es zudem, auf eigene Produkte mit eigenen ethischen Standards zu setzen. Kritikern aber fehlt es an konkreten Grenzen, die Deutschland und die EU den Herstellern von KI setzen könnten. Thomas Metzinger, Mitglied EU-Expertengruppe, die im April Richtlinien zum Umgang mit KI vorgestellt hatte, warnt davor, Ethikdebatten nur als „elegante öffentliche Dekoration“für eine groß angelegte Investitionsstrategie zu benutzen.
Die Experten hatten im Auftrag der EU-Kommission Maximen festgeschrieben: KI soll die menschliche Autonomie respektieren, gesellschaftlichen Schaden vermeiden, fair agieren und erklärbar bleiben.
Wo soll es „rote Linien“geben?
Der Hamburger Justizsenator Till Steffen (Grüne) fordert in einer Beschlussvorlage für die aktuell tagende Justizministerkonferenz Jörg Bienert, Vorsitzender des KI Bundesverbands
in Travemünde klare Grenzen für die Entwicklung und den Einsatz von KI. „Solche ‚roten Linien‘ könnten etwa der Einsatz von KI bei der Entscheidung über den Einsatz autonomer Waffensysteme oder eine KI-gestützte Bewertung von Bürgern durch den Staat sein“, heißt es in dem Antrag, der unserer Redaktion vorliegt. Mit der Bewertung von Bürgern durch KI-Programme meint der Justizsenator etwa das „Social scoring“, eine „soziale Bewertung“, wie sie derzeit von der kommunistischen Führung in China installiert wird. Bürger können Rechte verlieren, etwa wenn sie Schulden beim Staat nicht bezahlen oder zu oft bei Rot über eine Ampel fahren. Andererseits können sie Vorteile genießen, wenn sie sich im Sinne der Regierung gut verhalten. Das Sammeln von Daten und KI-Techniken wie Gesichtserkennung spielen dabei eine wichtige Rolle. Grünen-Politiker Steffen sagt: „Künstliche Intelligenz kann das Verhalten eines Menschen anhand seines Wohnorts, Nahrung, Besitztümern und Bewegungsprofil deuten und mit bestimmten Anreizen auch lenken.“Eine freie Entfaltung der Persönlichkeit sei dadurch kaum mehr gegeben. „So weit darf es nicht kommen.“
Mit Blick auf militärische Einsätze rennt Steffen offene Türen ein: Auch die Bundeswehr wolle keine Systeme, die ein Ziel selbstständig erkennen, analysieren und bekämpfen, ohne dass ein Mensch sie autorisiert, erklärte Gerald Funke im Gespräch mit unserer Redaktion. „Das ist die ,rote Linie‘.“Funke ist Brigadegeneral im Verteidigungsministerium und zuständig für Strategie der Bundeswehr.
Wie hat Google auf den Protest seiner Ingenieure reagiert?
In den vergangenen Jahren hatte Google Milliarden in Käufe von Unternehmen investiert, um KI voranzutreiben–darunterauch Rüstungsunternehmen. Im Konzern regte sich gegen diesen Kurs und die Zusammenarbeit mit dem US-Militär Widerstand. Die Führung des Unternehmens geriet durch den öffentlichen Protest unter Druck. Am Ende zog sich Google aus der Zusammenarbeit mit dem Verteidigungsministerium zurück.