„Vor künstlicher Intelligenz muss man keine Angst haben“
Anastassia Lauterbach ist eine führende Expertin in Sachen künstlicher Intelligenz. Im SN-Interview beschreibt sie, ab wann ein Gerät als schlau gilt. Sie erläutert, wieso Maschinen oft rassistisch sind. Und sie ordnet die Vergewaltigung von Toastern ein.
SN: Frau Lauterbach, Sie haben Psychologie studiert. Sie haben einen Doktor in Slawistik. Sie haben jahrelang in der Finanzbranche gearbeitet. Wie wird man mit dieser Vita Expertin für künstliche Intelligenz (AI)?
Anastassia Lauterbach: Ich bin halt ein leicht merkwürdiges Tierchen (lacht). Nein, dazu gibt es eine konkrete Geschichte. Ich trainiere ja auch Aufsichtsräte. Und im Mai 2016 wurde ich eingeladen, einen englischen Aufsichtsrat zu beraten. Dabei hat mich ein Vorstand etwas zu einem 70-Millionen-Deal um künstliche Intelligenz gefragt. Im Gespräch habe ich gemerkt, dass er keine Ahnung hatte, was AI ist. Ich habe dann im September gemeinsam mit einer Bekannten einen Artikel zu AI in einer US-Zeitschrift veröffentlicht. Und schon im November kam die Anfrage, ob ich ein Buch dazu schreiben könnte. SN: Dann klären Sie uns auf: Was ist künstliche Intelligenz? Es gibt mehrere Definitionsansätze. Aber konzentrieren wir uns einmal auf den mathematischen und schlussendlich informationstechnologischen Ansatz. Dort gibt es zum einen den simplen kognitiven Bereich. Dabei werden Tonnen von Daten in einen Computer geschüttet und er sucht nach Mustern. Das ist aber nicht wirklich AI.
SN: Wann beginnt dann AI?
Von wirklicher künstlicher Intelligenz sprechen wir, wenn Maschinen nicht nur generalisieren, sondern wenn sie ihre Entscheidungen speichern und dadurch lernen, Probleme eigenständig zu behandeln. Das Ganze sollte am besten noch tiefgehend ablaufen – Stichwort Deep Learning –, also Algorithmen, die über mehrere Schichten rechnen.
SN: Können Sie ein Beispiel nennen?
Deep Learning funktioniert ähnlich, wie unsere Sinne funktionieren. Wir riechen etwas, merken es uns und können es beim nächsten Mal nicht nur zuordnen, sondern auch unterscheiden. Eine StanfordProfessorin, die mittlerweile bei Google arbeitet, hat um 2008 ein Bildernetz aufgezogen. Ihre Studenten mussten Bilder verschlagworten und in das System speisen, etwa „Hund“, „kein Hund“, „bellender Hund“, „Katze“. Heute gibt es in dieser Datenbank 13 Mill. Einheiten. Man hat das System also stetig weiterentwickelt und somit trainiert.
SN: Ist dann mein Smartphone nicht auch intelligent, weil es ja ebenso dazulernen kann?
Alle Produkte von Apple, Google, Amazon oder Facebook sind mit künstlicher Intelligenz verbunden. Ein iPhone liefert künstliche Intelligenz am Endpunkt, am Gerät. Aber auch die Facebook-Plattformen sind bis zu einem gewissen Grad intelligent. Auf Instagram werden etwa seit Sommer automatisch bestimmte Emojis gelöscht – als Gegenbewegung zu der Trump-, Hass-, Fake-News-Debatte. Oder nehmen wir Google: 2008 gab es noch einen Aprilscherz, dass Gmail (der E-Mail-Service von Google, Anm.) E-Mails eigenständig beantwortet. Im Mai 2017 wurde ebendiese Funktion lanciert.
SN: Und AI wird noch besser angenommen, wenn sie menschlich wirkt, oder?
Sicher. Die meisten Menschen geben ihrem Auto einen Namen – meines heißt Mascha –, sprechen mit ihm, schreien es an. Mensch und Maschine sind enorm verbunden. In anderen Kulturen ist das sogar noch stärker: In Japan werden in Altersheimen Roboter gegenüber Menschen sogar bevorzugt.
SN: Aber finden Sie diesen Trend gut?
Ich persönlich bin der Ansicht, dass eine Maschine nicht absolut menschlich sein soll. Ich habe vor Kurzem jemanden getroffen, der Scarlett Johansson als Roboter nachgebaut hat. Von so etwas bin ich kein Fan. Ich finde auch „Westworld“(eine TV-Serie, in der es stark menschenähnliche Roboter gibt, Anm.) gruselig. Aber es tun sich in der Tat neue Fragen auf.
SN: Und zwar?
In der Serie wird ein menschlich wirkender Roboter vergewaltigt. Ist das dann so, als ob jemand seinen Toaster vergewaltigt? Oder ist das mit „echter“Vergewaltigung gleichzusetzen?
SN: Wie stehen Sie dazu?
Da tue ich mich schwer. Im 15. Jahrhundert war es normal, Frauen zu foltern, wenn man dachte, dass sie Hexen sind. Die ethischen Normen waren schlicht andere. Und wer weiß, wie sich die Normen ändern, wenn es wirklich flächendeckend menschlich wirkende Geräte gibt. In den USA gibt es übrigens schon jetzt ein Gesetz, das Menschen ins Gefängnis wandern lässt, wenn sie Roboter bestellen, die wie Kinder aussehen. Es wird als Vorstufe oder als Training für Pädophilie gesehen. Andere sagen, dass es Blödsinn ist, so etwas unter Strafe zu stellen. Denn es ist besser, wenn sich die Pädophilen an Robotern statt an Kindern vergehen.
SN: Wie realistisch ist eine Gesellschaft à la „Westworld“?
In Las Vegas gibt es eine Firma, der Sie ein Foto schicken können – und sie baut den Menschen dann als Roboter nach. Aber die Technologie ist noch lange nicht so weit wie in „Westworld“. Das wird auch zu meinen Lebzeiten nicht so sein. Und wohl auch nicht zu denen meiner Tochter – sie ist jetzt acht. Wir sind aktuell bei maximal fünf Prozent des Potenzials von AI angelangt.
SN: Wir müssen also keine Angst vor AI haben?
Nein, nicht unmittelbar. Man darf auch nicht den Fehler machen, künstliche und menschliche Intelligenz 1:1 zu vergleichen. Wenn Alexa (Amazons Sprachassistentin, Anm.) einem Kind mit Autismus hundert Mal dieselbe Frage beantwortet, die Mutter aber nach dem dritten Mal durchdreht, hat Alexa eigentlich besser reagiert. Aber ist sie dadurch intelligenter? Das Einzige, vor dem man Angst haben sollte, ist, dass Algorithmen einprogrammierte Vorurteile haben.
SN: Inwiefern?
Es gab den Fall, dass ein Computer das Bild eines Schwarzen mit einem Affen gleichgesetzt hat. Weil es im Entwicklerteam nur Weiße gab – und die keine Bilder von dunkelhäutigen Menschen eingespeist haben. Dass Elemente aus einem unvollständigen Weltbild übernommen werden, ist eine große Gefahr.
SN: Wie kann man dem entgegenwirken?
Nur durch große gesellschaftliche Änderungen. In die Ethik-Boards der Unternehmen müssen Leute rein, die nicht nur aus der Technologie kommen. Man müsste sich sogar überlegen, ob es nicht ein Höchstalter für Vorstände geben sollte. Und auch die Entwicklerteams müssen vielfältig sein. Meine Tochter war vergangenen Sommer in einem Robotik-Camp. Sie war das einzige Mädchen und die einzige Weiße. Alle anderen waren männliche Amerikaner mit chinesischer oder indischer Abstammung.
SN: Sind Sie dann auch für Frauenquoten in Unternehmen?
Leider ja. Und ich sage leider, weil auch ich darunter gelitten habe, dass man mich bei der Deutschen Telekom als Quotenfrau bezeichnet hat (siehe Infokasten unten) – obwohl die Quote erst eingeführt wurde, nachdem ich schon im Vorstand war. Aber ohne Frauenquoten geht es offenbar nicht.
SN: Vor allem traditionelle Unternehmen werden sich wohl mit Ihren Forderungen schwertun. Mir fallen die deutschen Autobauer ein.
Das Problem der deutschen Autobauer ist in der eigenwilligen Führungsund Branchenkultur begründet. Die deutschen Autobauer haben die meisten Patente um EFahrzeuge, hinken China, Korea oder den USA aber weit hinterher. Es gab ja 2015 den VW-Abgasskandal. Und im Mai 2017 lese ich, dass Porsche immer noch solch eine Software verbaut hat. Da frag ich mich schon: Kinder der Nacht, habt ihr sie nicht mehr alle?
SN: Abschließend: Gehört AI die Zukunft?
Der Gründer von „Wired“(Technologiemagazin, Anm.) hat einmal gesagt, dass das Geschäft der nächsten zehntausend Start-ups einfach sein wird: Man braucht nur X zu nehmen und AI dazuzugeben. Aber das ist nicht nur die Zukunft von Start-ups, sondern auch die von vielen traditionellen Unternehmen. Viele werden aber Angst haben, das Thema anzufassen. Das liegt etwa daran, dass die CIOs (die IT-Leiter, Anm.) meist nicht im Vorstand sitzen. Sie sitzen eher irgendwo im Keller und reparieren Computer. Jeder Betrieb ist mittlerweile in irgendeiner Form ein IT-Betrieb – aber das ist nur wenigen bewusst.
„Wir sind erst bei fünf Prozent des Potenzials von künstlicher Intelligenz.“Anastassia Lauterbach, AI-Expertin