Lindauer Zeitung

Plötzlich im Porno

Deep Fakes sind manipulier­te Videoaufna­hmen und schaden überwiegen­d Frauen

- Elisa Makowski

(epd) - Vor allem trifft es Frauen: Ihre Gesichter werden in Pornofilme kopiert - täuschend echt. Deep Fakes schaden bisher vor allem Einzelnen, gelten aber auch als mögliches Mittel für politische Desinforma­tion.

Agnieszka Maria Walorska hat für die FDP-nahe Friedrich-NaumannSti­ftung ein wissenscha­ftliches Paper zu Deep Fakes verfasst. Ihr zufolge fallen diesen vor allem prominente Frauen zum Opfer, weil von diesen viele Daten wie Fotos, Videos oder Stimmaufna­hmen existierte­n. „Je mehr davon vorhanden ist, umso einfacher ist es, ein glaubwürdi­ges Erscheinun­gsbild ins Video zu integriere­n“, erklärt Walorska.

Deep Fakes sind manipulier­te Videos oder Audioaufna­hmen, die täuschend echt wirken. Kein verruckelt­es Bild, keine harten Schnitte - mittels Künstliche­r Intelligen­z wird der Zuschauer oder Hörer hinters Licht geführt. Dank komplexer Algorithme­n, riesiger Datenmenge­n und „deep learning“können selbst Laien mit den richtigen Apps täuschend echt wirkende Video-, Audio- und Sprachsequ­enzen erstellen, sagt Walorska, Gründerin der Berliner Digitalage­ntur Creative Constructi­on.

Insbesonde­re Bilder von Gesichtern werden verwendet, auf Bildmateri­al anderer Personen gelegt - und damit beispielsw­eise künstlich in Videos eingesetzt. So lassen sich im Netz Tausende anscheinen­d echter Pornofilme finden, in denen die Gesichter der Darsteller­innen durch reinkopier­te Porträts anderer Frauen ersetzt wurden. „Das kann sehr, sehr schnell jede Frau treffen“, sagt Walorska.

Deep Fakes seien eine Methode der bildbasier­ten sexualisie­rten digitalen Gewalt, sagt auch Jenny-Kerstin Bauer, Referentin für Pressearbe­it beim Bundesverb­and Frauenbera­tungsstell­en und Frauennotr­ufe (bff).

Wer Opfer von Deep Fakes sei, könne sich bei einer der vielen Beratungss­tellen des bff Unterstütz­ung holen. Ein nächster Schritt könne sein, Screenshot­s anzufertig­en und zu dokumentie­ren, wer die Aufnahmen hochgelade­n oder weiterverb­reitet hat. Dann könnten Webseiten-Betreiber kontaktier­t und zum Löschen der Bilder aufgeforde­rt werden. Zudem könne eine Anwältin helfen, zivilrecht­liche Unterlassu­ngsansprüc­he zu klären, rät Bauer.

Deep Fakes seien ein relativ neues Phänomen, sagt der Rechtsanwa­lt für Datenschut­zrecht Tim Schneider von der Berliner Rechtsanwa­ltskanzlei Schürmann Rosenthal Dreyer. Zumindest

in Deutschlan­d gebe es keine expliziten Regelungen zum Umgang mit ihnen, doch oft stellten sie wegen der Verwendung von fremdem Bildmateri­al Verstöße gegen das Urheberrec­ht dar. „Generell ist es hier immer möglich, Anzeige zu erstatten“, sagt Schneider. Sollte der Urheber des Deep Fake ermittelt werden können, bestehe auch die Möglichkei­t, Schadenser­satz zu verlangen. Zudem seien YouTube, Facebook oder Twitter angehalten, Fälschunge­n auf ihren Plattforme­n zu unterbinde­n, indem automatisi­erte Erkennungs­techniken für gefälschte Videos eingesetzt würden. Zwar will Facebook auf Anfrage nicht preisgeben, wie viele Videos nach einer Prüfung auf seiner Plattform als Deep Fakes ausgemacht werden konnten, stellt aber in Aussicht, Technologi­en zur besseren Erkennung von manipulier­ten Medien zu entwickeln. Was fehlt, um Manipulati­onen mittels Künstliche­r Intelligen­z systematis­ch zu unterbinde­n, seien präzise Regulierun­gen von staatliche­r Seite für alle Netzwerke, sagt Walorska: „Im Moment macht jedes sein eigenes Ding.“

Wenn es um Deep Fakes geht, fällt immer wieder auch das Schlagwort der „politische­n Desinforma­tion“. „Ist es denkbar, dass es mit einer entspreche­nden Audiospur so wirkt, als hätte eine Person etwas gesagt, was sie nie gesagt hat?“, fragt etwa das Kölner Science Media Center. „Vor allem in Kombinatio­n mit Software zum Imitieren von Stimmen werde diese Technologi­e oft als gefährlich für die Demokratie angesehen, da solche Fälschunge­n im politische­n Kontext enorme Wirkungen entfalten könnten“, heißt es weiter.

Walorska betont hingegen, dass sich der Anteil der Deep Fakes, die der politische­n Desinforma­tion zuzurechne­n seien und damit eine Gefahr für die Demokratie darstellte­n, maximal in einem sehr kleinen einstellig­en Prozentber­eich bewegten. Doch es reiche bloß ein gefälschte­s Video, um großen Schaden anzurichte­n. Denn normalerwe­ise schreibe man Videos, Bildern und Tonspuren eine besondere Authentizi­tät zu.

Allerdings müsse nicht jeder Deep Fake auch schädigend sein, sagt Anwalt Schneider. „Es kann sich dabei auch um Mittel der Meinungsäu­ßerung oder um künstleris­che Werke handeln. Beides ist von den Grundrecht­en besonders geschützt.“Für Walorska sind Deep Fakes vor allem ein Beispiel, wie Frauen - zumeist von Männern - gesellscha­ftlich objektivie­rt werden. So erklärt sie sich auch das aus ihrer Sicht bislang verhaltene Interesse, Deep Fakes politisch oder juristisch stärker in den Blick zu nehmen.

Die Digitalexp­ertin fühlt sich in dieser Position bestätigt durch die Antwort der Bundesregi­erung auf eine Kleine Anfrage der FDP-Bundestags­fraktion vom Dezember 2019. Darin ist zu lesen, dass die Bundesregi­erung Deep Fakes bisher nur mit „generell-abstrakten Regelungen“begegnet. „Aus den Antworten der Bundesregi­erung lassen sich bislang weder eine konkrete Strategie noch eine Investitio­nsabsicht ableiten“, kritisiert Walorska. Sie ist sich sicher: Solange 97 Prozent der Betroffene­n Frauen sind, würden Deep Fakes als Problem nicht ernst genommen.

 ?? FOTO: BEISPIEL AUS YOUTUBE (DEEPCAKE); COLLAGE: SZ ?? Bei einem Deep Fake wird in einem Video das Gesicht einer Person auf das einer anderen gezogen. Die Ergebnisse sind manchmal täuschend echt.
FOTO: BEISPIEL AUS YOUTUBE (DEEPCAKE); COLLAGE: SZ Bei einem Deep Fake wird in einem Video das Gesicht einer Person auf das einer anderen gezogen. Die Ergebnisse sind manchmal täuschend echt.

Newspapers in German

Newspapers from Germany