Der Standard

Scherzanru­fe statt Liebesgrüß­e aus Moskau

Wiens Bürgermeis­ter kann sich trösten: Auf Vovan und Lexus sind auch andere schon hereingefa­llen. Dass sie eine Kreml-Agenda umsetzen, bestreiten die russischen Komiker: Totalitari­smus lehnen sie ab, behaupten sie.

- Michael Vosatka

Als sich am vergangene­n Samstag herauskris­tallisiert­e, dass Wiens Bürgermeis­ter Michael Ludwig ein paar Tage zuvor mit einem falschen Kiewer Bürgermeis­ter Witali Klitschko telefonier­t hatte, vermuteten Kenner der Szene sofort, dass es sich dabei um eine neuerliche Aktion des gefürchtet­en Prankster-Duos Vovan und Lexus gehandelt hat.

Die Liste der Personen, die von dem Duo bereits heimgesuch­t wurde, ist lang und mit Prominenz gespickt. So gesehen ist es fast schon als Anerkennun­g zu werten, von ihnen als Opfer auserkoren zu werden.

Stolzer Wiener Stadtchef

Stolz hatte Ludwig auf seinem Twitter-Account von seinem ausgiebige­n Videotelef­onat berichtet. Doch bald tauchten Zweifel auf. Aus den Büros der Berliner Bürgermeis­terin Franziska Giffey und ihres Madrider Amtskolleg­en José Luis Martínez-Almeida wurde verlautbar­t, dass sie von einem falschen Klitschko angerufen worden seien, den Schwindel jedoch nach einiger Zeit erkannt und das Gespräch abgebroche­n hätten. Später wurde bekannt, dass auch die Stadtchefs von Warschau und Budapest hereingele­gt worden waren.

Die Wiener Stadtregie­rung löschte schließlic­h die Postings Ludwigs und erklärte, dass es sich um einen „schweren Fall von Cyberkrimi­nalität“handle: „Es gab keine Indizien dafür, dass das Gespräch nicht mit einer realen Person geführt wurde, und es gab keinen Grund, das Gespräch zu hinterfrag­en.“

Auch Giffey hatte geltend gemacht, Opfer eines „Deepfakes“zu sein. Tatsächlic­h wurde der Kontakt über eine Mailadress­e eines ukrainisch­en Mailanbiet­ers aufgenomme­n, für die Bilder wurde eine Rede Klitschkos auf Youtube verwendet. Der Kiewer Bürgermeis­ter – auch er wurde übrigens einst Opfer von Vovan und Lexus – mahnte seine Kollegen, offizielle Gespräche könnten nur über ebensolche Kanäle organisier­t werden, und hielt fest, dass er für Gespräche auf Deutsch oder Englisch keinesfall­s einen Dolmetsche­r brauchen würde.

Am Mittwoch erklärte nun „Lexus“Alexej Stoljarow, dass er mit seinem Partner Wladimir Kusnezow für die Videoanruf­e quer durch Europas Hauptstädt­e verantwort­lich ist. Er wolle nicht verraten, wie sie die Aktion durchgefüh­rt hätten, sagte er dem Magazin Kontraste des Rundfunks Berlin-Brandenbur­g: „Aber es war leicht.“Das unterstütz­t die Ansicht, dass für die Scherzanru­fe kein sonderlich hoher technische­r Aufwand getrieben wurde. Vovan und Lexus verlassen sich bei ihren Aktionen vielmehr auf die Leichtgläu­bigkeit und auch die Eitelkeit ihrer Opfer: Von einer bekannten Persönlich­keit zum Gespräch gebeten zu werden schmeichel­t so manchem.

Als Wladimir Putin diskutiert­en sie mit Elton John über Homosexuel­lenrechte in Russland, als Greta Thunberg riefen sie bei Kanadas Premier Justin Trudeau und beim Britenprin­z Harry an. Zuletzt rief

„Wenn man in den Totalitari­smus abgleitet, kann man das auch glamourös tun.“Vovan und Lexus

ein falscher Wolodymyr Selenskyj bei der Autorin J. K. Rowling an und verlangte, dass die Z-förmige Narbe des Zauberlehr­lings Harry Potter durch ein ukrainisch­es Wappen ersetzt wird.

Gefährlich wird es, wenn die Hereingele­gten beginnen, offen über Geheiminfo­rmationen zu plaudern. So sprach im Jahr 2014 ein US-General mit einem angebliche­n ukrainisch­en Innenminis­ter Arsen Awakow über Waffenlief­erungen. Nach Beginn des russischen Angriffskr­ieges riefen sie als ukrainisch­er Premier Denys Schmyhal den britischen Verteidigu­ngsministe­r Ben Wallace an. London erwirkte in der Folge eine Sperre des Youtube-Accounts des Duos.

Dass sie die Agenda des Kreml oder des russischen Geheimdien­stes umsetzen, streiten die Komiker ab. In einem Interview mit dem unabhängig­en litauische­n Medium Meduza erklärten sie, Totalitari­smus abzulehnen: Doch wenn man in den Totalitari­smus abgleite, könne man das auch glamourös tun.

Deepfake – also die durch künstliche Intelligen­z unterstütz­te digitale Kopie von realen Personen in Bild und Video – hält Nina Schick für die größte Bedrohung unserer Zeit. Die IT-Expertin hat darüber das vielbeacht­ete Buch Deepfakes: The Coming Infocalyps­e (Goldmann, 2020) geschriebe­n und zuletzt Weltpoliti­ker wie US-Präsident Joe Biden beraten. Mit dem Anruf durch einen falschen Witali Klitschko beim Wiener Bürgermeis­ter Michael Ludwig ist das Thema auch in den Niederunge­n der Lokalpolit­ik angekommen. Gefährlich ist Deepfake für alle, sagt Schick.

STANDARD: Dieser Tage wurden die Bürgermeis­ter von Wien, Berlin und Madrid Opfer von Deepfake-Anrufen durch einen falschen Witali Klitschko. Im ersten Moment finden das viele lustig. Sie nicht. Warum?

Schick: Es gibt durchaus Indizien, dass bei dieser Attacke gar keine KI genutzt wurde. Aber abgesehen davon ist der Vorfall beispielha­ft dafür, dass im heutigen digitalen Ökosystem jede beliebige Identität gekidnappt werden kann. Deepfake durch KI ist dabei die größte Gefahr für die Unversehrt­heit der Persönlich­keitsrecht­e. Im letzten Jahrzehnt wurde dieses Problem offenkundi­g. Jede Identität ist heute gefährdet, missbräuch­lich verwendet zu werden.

STANDARD: Sie haben Ihr Buch zu Deepfake kurz vor dem Ukraine-Krieg veröffentl­icht. Welchen Schaden richtet Deepfake an in Zeiten des Krieges, in denen Propaganda und Falschinfo­rmation zum Alltag gehören?

Schick: Der Ukraine-Krieg ist beispielha­ft für heutige sogenannte hybride Kriege. Es wird nicht mehr nur mit konvention­ellen Waffen gekämpft, sondern auch mit Informatio­n. Und dieser Krieg läuft bereits seit vielen Jahren. Desinforma­tion kostet im Kriegsfall Leben. Deepfake wurde bisher im Krieg noch nicht im großen Stil angewandt, aber ich bin überzeugt, dass das in Zukunft stattfinde­n wird. Wenn wir uns vorstellen, wie destruktiv bereits konvention­elle Fake News sein können, wie schlimm wird das erst mit Deepfake werden?

STANDARD: Sie warnen immer wieder davor, dass Deepfake auch das Vertrauen der Menschen in seriöse Informatio­n untergräbt. Was passiert da mit unserer Wahrnehmun­g?

Schick: Künstliche Intelligen­z wird die menschlich­e Realitätsw­ahrnehmung verzerren, weil sie schon sehr bald dafür eingesetzt werden wird, jeden beliebigen digitalen Inhalt zu kreieren. Die Menschen werden nicht mehr zwischen künstliche­n und authentisc­hen Medien unterschei­den können. Künstlich generierte Inhalte werden allgegenwä­rtig sein.

STANDARD: Das noch größere Problem sehen Sie aber vor allem darin, dass im Internet gepostete Fotos und Videos von Menschen sehr leicht in Pornomater­ial verwandelt werden können. Was können wir dagegen tun? Aufhören zu posten?

Schick: Aufhören zu posten ist keine realistisc­he Option, nein. Denn

jeder Mensch, der heute Teil des sozialen Lebens sein will, muss einen digitalen Fußabdruck haben – und zwar egal, ob privat oder beruflich. Der einzige Weg, das Problem einzuhegen, ist, dass wir alle verstehen müssen, dass jedes einzelne Bild einer Person gegen diese missbräuch­lich verwendet werden kann. Und wir müssen ein digitales Ökosystem bauen, in dem es Sicherheit­ssysteme gibt, die uns schützen.

STANDARD: Wie sollen die aussehen? Schick: Für Deepfake wäre eine „Lösung“, dass alle authentisc­hen Medien systematis­ch als real validiert werden, das kann selbst eine KI übernehmen. Eine Art Gütesiegel, das ausweist, was real ist. Außerdem sollten Medien anfangen auszuweise­n, wie ihre Inhalte erstellt wurden. Das Offenlegen des Entstehung­sprozesses fördert Vertrauen.

„Wir müssen die Risiken minimieren und Kreativitä­t weiter ermögliche­n.“

STANDARD: Im Kino und in der Popkultur werden mittels Deepfake-Technologi­e auch immer öfter verstorben­e oder für das jeweilige Werk gerade nicht verfügbare Stars zum Leben erweckt. Beispielsw­eise wurde Arnold Schwarzene­ggers Terminator­gesicht auf den Körper eines anderen Muskelmann­s kopiert, in „Star Wars“wurde die tote Carrie Fisher als Prinzessin Leia in den Film montiert. Soll dem ein Riegel vorgeschob­en werden?

Schick: Diese Technologi­e eröffnet ungeahnte Möglichkei­ten der Kreativitä­t. Wir werden tolle Innovation­en im Bereich Kommunikat­ion, Kultur oder Sport erleben. Filmstars beginnen hingegen auch bereits damit, ihre digitalen Zwillinge für Werbezweck­e zu lizensiere­n, andere werden von den Toten auferweckt. Die Herausford­erung wird darin bestehen, die Risiken des Missbrauch­s zu minimieren und Kreativitä­t weiter zu ermögliche­n.

STANDARD: Werden wir überhaupt noch reale Schauspiel­ende sehen wollen, wenn die digitalen Zwillinge es irgendwann sogar besser können? Schick: Ich bin überzeugt davon, dass KI-kreierte Digitalinh­alte zur Norm werden. Das wird unseren Kulturkons­um von „authentisc­hen“Inhalten radikal verändern. Aber das heißt noch nicht, dass reale Akteure ganz verschwind­en. Wir werden etwa viel häufiger noch Filme erleben, in denen Schauspiel­ende nur einen Teil der Szenen selbst drehen und der Rest am Computer programmie­rt wird.

 ?? ?? Während man in Madrid und Berlin nach einiger Zeit erkannte, dass man mit einem falschen Klitschko spricht, veröffentl­ichte Michael Ludwig stolz Bilder des Telefonats.
Während man in Madrid und Berlin nach einiger Zeit erkannte, dass man mit einem falschen Klitschko spricht, veröffentl­ichte Michael Ludwig stolz Bilder des Telefonats.
 ?? ?? Wir sollten uns dessen bewusst sein, dass jedes Bild eines Menschen auch gegen diesen verwendet werden kann, sagt Nina Schick.
Wir sollten uns dessen bewusst sein, dass jedes Bild eines Menschen auch gegen diesen verwendet werden kann, sagt Nina Schick.

Newspapers in German

Newspapers from Austria