Scherzanrufe statt Liebesgrüße aus Moskau
Wiens Bürgermeister kann sich trösten: Auf Vovan und Lexus sind auch andere schon hereingefallen. Dass sie eine Kreml-Agenda umsetzen, bestreiten die russischen Komiker: Totalitarismus lehnen sie ab, behaupten sie.
Als sich am vergangenen Samstag herauskristallisierte, dass Wiens Bürgermeister Michael Ludwig ein paar Tage zuvor mit einem falschen Kiewer Bürgermeister Witali Klitschko telefoniert hatte, vermuteten Kenner der Szene sofort, dass es sich dabei um eine neuerliche Aktion des gefürchteten Prankster-Duos Vovan und Lexus gehandelt hat.
Die Liste der Personen, die von dem Duo bereits heimgesucht wurde, ist lang und mit Prominenz gespickt. So gesehen ist es fast schon als Anerkennung zu werten, von ihnen als Opfer auserkoren zu werden.
Stolzer Wiener Stadtchef
Stolz hatte Ludwig auf seinem Twitter-Account von seinem ausgiebigen Videotelefonat berichtet. Doch bald tauchten Zweifel auf. Aus den Büros der Berliner Bürgermeisterin Franziska Giffey und ihres Madrider Amtskollegen José Luis Martínez-Almeida wurde verlautbart, dass sie von einem falschen Klitschko angerufen worden seien, den Schwindel jedoch nach einiger Zeit erkannt und das Gespräch abgebrochen hätten. Später wurde bekannt, dass auch die Stadtchefs von Warschau und Budapest hereingelegt worden waren.
Die Wiener Stadtregierung löschte schließlich die Postings Ludwigs und erklärte, dass es sich um einen „schweren Fall von Cyberkriminalität“handle: „Es gab keine Indizien dafür, dass das Gespräch nicht mit einer realen Person geführt wurde, und es gab keinen Grund, das Gespräch zu hinterfragen.“
Auch Giffey hatte geltend gemacht, Opfer eines „Deepfakes“zu sein. Tatsächlich wurde der Kontakt über eine Mailadresse eines ukrainischen Mailanbieters aufgenommen, für die Bilder wurde eine Rede Klitschkos auf Youtube verwendet. Der Kiewer Bürgermeister – auch er wurde übrigens einst Opfer von Vovan und Lexus – mahnte seine Kollegen, offizielle Gespräche könnten nur über ebensolche Kanäle organisiert werden, und hielt fest, dass er für Gespräche auf Deutsch oder Englisch keinesfalls einen Dolmetscher brauchen würde.
Am Mittwoch erklärte nun „Lexus“Alexej Stoljarow, dass er mit seinem Partner Wladimir Kusnezow für die Videoanrufe quer durch Europas Hauptstädte verantwortlich ist. Er wolle nicht verraten, wie sie die Aktion durchgeführt hätten, sagte er dem Magazin Kontraste des Rundfunks Berlin-Brandenburg: „Aber es war leicht.“Das unterstützt die Ansicht, dass für die Scherzanrufe kein sonderlich hoher technischer Aufwand getrieben wurde. Vovan und Lexus verlassen sich bei ihren Aktionen vielmehr auf die Leichtgläubigkeit und auch die Eitelkeit ihrer Opfer: Von einer bekannten Persönlichkeit zum Gespräch gebeten zu werden schmeichelt so manchem.
Als Wladimir Putin diskutierten sie mit Elton John über Homosexuellenrechte in Russland, als Greta Thunberg riefen sie bei Kanadas Premier Justin Trudeau und beim Britenprinz Harry an. Zuletzt rief
„Wenn man in den Totalitarismus abgleitet, kann man das auch glamourös tun.“Vovan und Lexus
ein falscher Wolodymyr Selenskyj bei der Autorin J. K. Rowling an und verlangte, dass die Z-förmige Narbe des Zauberlehrlings Harry Potter durch ein ukrainisches Wappen ersetzt wird.
Gefährlich wird es, wenn die Hereingelegten beginnen, offen über Geheiminformationen zu plaudern. So sprach im Jahr 2014 ein US-General mit einem angeblichen ukrainischen Innenminister Arsen Awakow über Waffenlieferungen. Nach Beginn des russischen Angriffskrieges riefen sie als ukrainischer Premier Denys Schmyhal den britischen Verteidigungsminister Ben Wallace an. London erwirkte in der Folge eine Sperre des Youtube-Accounts des Duos.
Dass sie die Agenda des Kreml oder des russischen Geheimdienstes umsetzen, streiten die Komiker ab. In einem Interview mit dem unabhängigen litauischen Medium Meduza erklärten sie, Totalitarismus abzulehnen: Doch wenn man in den Totalitarismus abgleite, könne man das auch glamourös tun.
Deepfake – also die durch künstliche Intelligenz unterstützte digitale Kopie von realen Personen in Bild und Video – hält Nina Schick für die größte Bedrohung unserer Zeit. Die IT-Expertin hat darüber das vielbeachtete Buch Deepfakes: The Coming Infocalypse (Goldmann, 2020) geschrieben und zuletzt Weltpolitiker wie US-Präsident Joe Biden beraten. Mit dem Anruf durch einen falschen Witali Klitschko beim Wiener Bürgermeister Michael Ludwig ist das Thema auch in den Niederungen der Lokalpolitik angekommen. Gefährlich ist Deepfake für alle, sagt Schick.
STANDARD: Dieser Tage wurden die Bürgermeister von Wien, Berlin und Madrid Opfer von Deepfake-Anrufen durch einen falschen Witali Klitschko. Im ersten Moment finden das viele lustig. Sie nicht. Warum?
Schick: Es gibt durchaus Indizien, dass bei dieser Attacke gar keine KI genutzt wurde. Aber abgesehen davon ist der Vorfall beispielhaft dafür, dass im heutigen digitalen Ökosystem jede beliebige Identität gekidnappt werden kann. Deepfake durch KI ist dabei die größte Gefahr für die Unversehrtheit der Persönlichkeitsrechte. Im letzten Jahrzehnt wurde dieses Problem offenkundig. Jede Identität ist heute gefährdet, missbräuchlich verwendet zu werden.
STANDARD: Sie haben Ihr Buch zu Deepfake kurz vor dem Ukraine-Krieg veröffentlicht. Welchen Schaden richtet Deepfake an in Zeiten des Krieges, in denen Propaganda und Falschinformation zum Alltag gehören?
Schick: Der Ukraine-Krieg ist beispielhaft für heutige sogenannte hybride Kriege. Es wird nicht mehr nur mit konventionellen Waffen gekämpft, sondern auch mit Information. Und dieser Krieg läuft bereits seit vielen Jahren. Desinformation kostet im Kriegsfall Leben. Deepfake wurde bisher im Krieg noch nicht im großen Stil angewandt, aber ich bin überzeugt, dass das in Zukunft stattfinden wird. Wenn wir uns vorstellen, wie destruktiv bereits konventionelle Fake News sein können, wie schlimm wird das erst mit Deepfake werden?
STANDARD: Sie warnen immer wieder davor, dass Deepfake auch das Vertrauen der Menschen in seriöse Information untergräbt. Was passiert da mit unserer Wahrnehmung?
Schick: Künstliche Intelligenz wird die menschliche Realitätswahrnehmung verzerren, weil sie schon sehr bald dafür eingesetzt werden wird, jeden beliebigen digitalen Inhalt zu kreieren. Die Menschen werden nicht mehr zwischen künstlichen und authentischen Medien unterscheiden können. Künstlich generierte Inhalte werden allgegenwärtig sein.
STANDARD: Das noch größere Problem sehen Sie aber vor allem darin, dass im Internet gepostete Fotos und Videos von Menschen sehr leicht in Pornomaterial verwandelt werden können. Was können wir dagegen tun? Aufhören zu posten?
Schick: Aufhören zu posten ist keine realistische Option, nein. Denn
jeder Mensch, der heute Teil des sozialen Lebens sein will, muss einen digitalen Fußabdruck haben – und zwar egal, ob privat oder beruflich. Der einzige Weg, das Problem einzuhegen, ist, dass wir alle verstehen müssen, dass jedes einzelne Bild einer Person gegen diese missbräuchlich verwendet werden kann. Und wir müssen ein digitales Ökosystem bauen, in dem es Sicherheitssysteme gibt, die uns schützen.
STANDARD: Wie sollen die aussehen? Schick: Für Deepfake wäre eine „Lösung“, dass alle authentischen Medien systematisch als real validiert werden, das kann selbst eine KI übernehmen. Eine Art Gütesiegel, das ausweist, was real ist. Außerdem sollten Medien anfangen auszuweisen, wie ihre Inhalte erstellt wurden. Das Offenlegen des Entstehungsprozesses fördert Vertrauen.
„Wir müssen die Risiken minimieren und Kreativität weiter ermöglichen.“
STANDARD: Im Kino und in der Popkultur werden mittels Deepfake-Technologie auch immer öfter verstorbene oder für das jeweilige Werk gerade nicht verfügbare Stars zum Leben erweckt. Beispielsweise wurde Arnold Schwarzeneggers Terminatorgesicht auf den Körper eines anderen Muskelmanns kopiert, in „Star Wars“wurde die tote Carrie Fisher als Prinzessin Leia in den Film montiert. Soll dem ein Riegel vorgeschoben werden?
Schick: Diese Technologie eröffnet ungeahnte Möglichkeiten der Kreativität. Wir werden tolle Innovationen im Bereich Kommunikation, Kultur oder Sport erleben. Filmstars beginnen hingegen auch bereits damit, ihre digitalen Zwillinge für Werbezwecke zu lizensieren, andere werden von den Toten auferweckt. Die Herausforderung wird darin bestehen, die Risiken des Missbrauchs zu minimieren und Kreativität weiter zu ermöglichen.
STANDARD: Werden wir überhaupt noch reale Schauspielende sehen wollen, wenn die digitalen Zwillinge es irgendwann sogar besser können? Schick: Ich bin überzeugt davon, dass KI-kreierte Digitalinhalte zur Norm werden. Das wird unseren Kulturkonsum von „authentischen“Inhalten radikal verändern. Aber das heißt noch nicht, dass reale Akteure ganz verschwinden. Wir werden etwa viel häufiger noch Filme erleben, in denen Schauspielende nur einen Teil der Szenen selbst drehen und der Rest am Computer programmiert wird.