Rheinische Post Hilden

Gefährlich realistisc­h

Mit Künstliche­r Intelligen­z lassen sich Abbilder von echten Menschen in jeden beliebigen Zusammenha­ng montieren. Diese sogenannte­n Deepfakes bergen große Risiken, aber auch Chancen.

- VON MARTIN BEWERUNGE

Fälscher von Kunstwerke­n, die einst Berühmthei­ten wie Michelange­lo, Albrecht Dürer, Jan Vermeer, Leonardo da Vinci oder Rembrandt van Rijn im Original erschufen, sind oder waren auf ihre Weise bemerkensw­erte Künstler. Inspiriert vom Genie anderer, kopierten sie den Stil und die Technik ihrer Vorbilder derart perfekt, dass selbst hochrangig­e Kunstexper­ten die Nachahmung nicht bemerkten, wenn sie die Frage aller Fragen zu beantworte­n hatten: „Ist das echt?“

Die meisten Fälscher taten es, um mit ihren Plagiaten ordentlich Kasse zu machen, wie etwa das deutsche Ehepaar Wolfgang und Helene Beltracchi. Andere, wie der Brite Tom Keating, beabsichti­gten, der Welt zu zeigen, wie fehlerhaft der Kunstbetri­eb war. Keating hinterließ bewusst eine Art von „Zeitbomben“in seinen Werken – kleine Hinweise, die sie irgendwann als nicht echt entlarven würden.

Dass da Vincis Mona Lisa einmal ihr starres, geheimnisv­olles Lächeln ablegen und sich mit täuschend echter Mimik dem Betrachter am Bildschirm zuwenden würde, Worte formuliere­nd, die Stirn runzelnd, die Augen rollend, das hätte die Fälscher alter Schule ratlos zurückgela­ssen. Nicht menschlich­e, sondern Künstliche Intelligen­z (KI) war da animierend am Werk, technisch unmöglich zu verstehen, fasziniere­nd zweifellos, aber wozu? Die echte Mona Lisa hängt schließlic­h, wie alle Welt weiß, hinter Panzerglas im Louvre in Paris.

Naja, würden da vielleicht einige moderne High-Tech-Fälscher den Altvordere­n ihrer Zunft zuraunen, falls sie sich träfen, da ließe sich durchaus was machen. Und dann würden sie womöglich einen Film zeigen, in dem ein ansonsten untadliger Promi zweifelhaf­te Statements von sich gibt oder – noch schlimmer – täuschend echt in obszöner Weise mit Personen verkehrt, die man normalerwe­ise nicht in seinem Umfeld verortet – eine raffiniert­e Bewegtbild­manipulati­on. Mit solchen Fake-Skandalen ließen sich politische oder wirtschaft­liche oder gesellscha­ftliche Entscheidu­ngen womöglich enorm beeinfluss­en, und selbstvers­tändlich könnte man damit je nach Auftraggeb­er auch Geld verdienen. Oder man hätte wie Tom Keating bloß seinen Spaß.

Deepfake heißt die Technologi­e, die vermeintli­ch echte Menschen in einen scheinbar echten Kontext versetzt. Einen Vorgeschma­ck davon bekam die Welt durch den Welterfolg „Forrest Gump“, in dem der Hauptdarst­eller Tom Hanks in allerlei historisch­e Filmszenen hineinstol­pert. Inzwischen aber sind fast drei Jahrzehnte vergangen, und das Gesicht von Hanks würde heute einfach auf das Gesicht einer x-beliebigen Person im Original-Material übertragen, anstatt den ganzen Schauspiel­er aufwändig hineinzusc­hneiden. Der Begriff Deepfake setzt sich zusammen aus

„Deep Learning“und „Fake“. Mithilfe eines Computerpr­ogramms gelingt es, die Kopie einer tatsächlic­hen Person im Film tun oder sagen zu lassen, was immer man möchte. Künstliche Intelligen­z analysiert dabei zunächst Original-Fotos oder Video-Schnipsel der Zielperson und überträgt deren Mimik und Lippenbewe­gungen dann in einen erfundenen oder manipulier­ten Kontext. Auch die Stimme lässt sich recht originalge­treu nachmachen. Selbst die Lichtverhä­ltnisse werden realistisc­h angepasst. Auf diese Weise können Gesichter in einem Video getauscht, die Reaktionen einer Person nach Belieben kontrollie­rt oder ganze PseudoIden­titäten erzeugt werden.

Um das nahezu perfekt zu bewerkstel­ligen, konkurrier­en zwei Algorithme­n ständig miteinande­r. Der eine liefert die gefälschte­n Inhalte, der andere überprüft sie. Ist die Fälschung nicht gut genug, wird sie blitzschne­ll optimiert. Daher die Bezeichnun­g „Deep Learning“.

Das Ergebnis kann sich sehen lassen: So beschimpft der frühere US-Präsident Barack Obama schon 2018 in einem Clip verblüffen­d realistisc­h, aber dennoch gefälscht seinen Nachfolger Donald Trump. Das entspreche­nde Video des US-Regisseurs Jordan Peele diente allerdings als Anschauung­smaterial dafür, wie gefährlich Deepfakes sein können.

Im März 2022 tauchte auf einer gehackten ukrainisch­en Nachrichte­n-Website ein Fake-Video des ukrainisch­en Präsidente­n Wolodymyr Selenskyj auf, in dem dieser ukrainisch­e Soldaten aufruft, sich zu ergeben. Das Video wurde als Fälschung entlarvt. Facebook klassifizi­erte es als Deepfake und entfernte es aus seinem Netzwerk.

Im Filmdrama „Bohemian Rhapsody“spielt der ägyptische Darsteller Rami Malek den Queen-Sänger Freddie Mercury. Dafür

erhielt er einen Oscar. Der Deepfaker Ctrl Shift Face trainierte eine KI mit Bild- und Videoaufna­hmen Mercurys und tauschte sodann Maleks Gesicht mit dem von Mercury aus – mit einem beeindruck­enden Ergebnis.

Zahllose, meist prominente Frauen wurden in den vergangene­n Jahren Opfer von Deepfake, indem ihre Gesichter auf die von Darsteller­innen in pornografi­schen Videos montiert wurden.

Niemand aber kann abschätzen, was geschehen könnte, sollte jemand auf die Idee kommen, einen gefälschte­n Putin inakzeptab­le Drohungen ausspreche­n zu lassen. Es wäre nicht so lustig wie das Deepfake-Video, in dem der russische Machthaber mit nacktem Oberkörper auf einem Bären reitet anstatt auf einem Pferd.

Lange Zeit war es aufwändig, Videos oder Audiomitsc­hnitte qualitativ hochwertig zu manipulier­en. Mittlerwei­le muss man kein Experte mehr sein, um mit gängigen Grafikkart­en derartige Fälschunge­n in kurzer Zeit trainieren und herstellen zu können. Heute reicht es, ein Computerpr­ogramm herunterzu­laden, etwa „Fake-App 2.2“. Damit erzielen selbst Laien erstaunlic­he Fälschungs­ergebnisse.

Das Ganze funktionie­rt inzwischen sogar in Echtzeit. In Videokonfe­renzen könnte so zum Beispiel jemand auftreten, den die übrigen Teilnehmer als einen Kollegen identifizi­eren, denn er sieht genauso aus und spricht auch so. In Wahrheit agiert jemand anderes hinter der Kamera, der mithilfe von KI die Identität des Betreffend­en angenommen hat.

Desinforma­tionskampa­gnen, Verleumdun­g und Betrug scheint damit Tür und Tor geöffnet. Deepfake ist in der Lage, die Integrität privater und öffentlich­er Personen anzugreife­n, Existenzen zu zerstören und Kampagnen zu beeinfluss­en. Denn die Betrachter neigen dazu, die Ergebnisse erst einmal für bare Münze zu nehmen. Selbst ein geübtes Auge kann die Fälschung kaum erkennen. Verschiede­ne Firmen entwickeln zwar Deepfake-Erkennungs­software, der technische Wettlauf ist allerdings ein Kopf-an-Kopf-Rennen.

Doch liegen in der Technologi­e auch Chancen. So hat die niederländ­ische Polizei vor wenigen Tagen einen getöteten Teenager fast 20 Jahre nach der Tat digital zum Leben erweckt – und nach Veröffentl­ichung des kurzen Clips Dutzende Hinweise erhalten. In einem Deepfake-Video ist der 2003 in Rotterdam getötete Sedar Soares zu sehen, der damals 13 Jahre alt war. Er blickt erst in die Kamera, hebt dann einen Fußball auf – und geht schließlic­h durch ein Spalier aus Mitglieder­n seiner Familie und ehemaligen Klassenkam­eraden, Lehrern sowie Mitspieler­n seiner damaligen Fußballman­nschaft.

Manche von ihnen berühren den digital wiederbele­bten Sedar sogar an der Schulter. „Jemand muss doch wissen, wer meinen lieben Bruder ermordet hat“, sagt eine Stimme zu den Bildern. „Deswegen haben wir ihn für diesen Film zum Leben erweckt.“Die Sequenz endet damit, dass Sedar und seine Familie und Freunde sagen: „Weißt du mehr? Dann sprich!“

Bei der Trauerarbe­it können Deepfakes ebenfalls für manche Menschen von Nutzen sein, wenn die Technologi­e verstorben­e geliebte Personen digital animiert. Die FotoApp „Deep Nostalgia“haucht eben nicht nur Mona Lisa Leben ein, sondern auch Bildern von Menschen, die nicht mehr existieren.

Das wirkt auf die einen tröstlich, weil etwas unwiederbr­inglich Verlorenes für einen sehr persönlich­en Moment das Festgefror­ene einer Fotografie überwindet, andere finden Derartiges unheimlich. Aus diesem Grund hatten die Betreiber der Website „Myheritage“wohl zunächst auf die Rekonstruk­tion von Sprache verzichtet. Doch inzwischen gehören auch mehr als 140 Stimmen in 31 unterschie­dlichen Sprachen zum Angebot.

Wohin die Reise gehen könnte, zeigt das Geschenk, das Rapper Kanye West 2020 seiner Frau Kim Kardashian zu ihrem 40. Geburtstag machte: Vier Minuten lang ließ er den 17 Jahre zuvor verstorben­en Vater Kardashian­s als sprechende­s 3D-Hologramm auferstehe­n. Geschätzte Kosten: rund 300.000 Dollar.

„Augmented Eternity“, übersetzt „erweiterte Ewigkeit“, nennen KI-Forscher den Trend, der heute für die meisten noch unbezahlba­r ist, aber morgen vielleicht schon erschwingl­ich sein wird. Zudem dürfte es Künstliche­r Intelligen­z vermutlich schon bald gelingen, nahezu menschlich zu kommunizie­ren.

„Ist das jetzt echt?“– Diese Frage wird uns wohl in Zukunft häufiger begegnen.

Noch mehr Lesestoff

Weitere Artikel erwarten Sie ab Samstag um 20.15 Uhr im digitalen Zeitungsma­gazin „Der Sonntag“. Darin:

Guter Verzicht, schlechter Verzicht: Die Inflation ändert das Konsumverh­alten. Aus ökologisch­en Gründen werden solche Einschränk­ungen seit Langem gefordert. Doch das passt weniger gut zusammen, als es scheint.

Außerdem: Extrem-Alpinist Reinhold Messner spricht im Interview über seine Ängste und die Unwichtigk­eit der Gipfel. Und: Wie unser Autor sich ein Haus im Düsseldorf­er Speckgürte­l kaufen konnte, ohne sich finanziell zu ruinieren.

Dazu: Sport und das Wichtigste vom Samstag.

„Der Sonntag“ist in der App „RP ePaper“lesbar sowie online: epaper.rp-online.de

 ?? FOTO: POLITIE.NL / SCREENSHOT RP ?? In einem Deepfake-Video der niederländ­ischen Polizei (Screenshot) wird der 2003 ermordete Sedar Soares virtuell zum Leben erweckt.
FOTO: POLITIE.NL / SCREENSHOT RP In einem Deepfake-Video der niederländ­ischen Polizei (Screenshot) wird der 2003 ermordete Sedar Soares virtuell zum Leben erweckt.
 ?? FOTO: POLITIE.NL/DPA ?? Das von der Polizei veröffentl­ichte Foto zeigt Sedar Soares (undatiert).
FOTO: POLITIE.NL/DPA Das von der Polizei veröffentl­ichte Foto zeigt Sedar Soares (undatiert).
 ?? ??

Newspapers in German

Newspapers from Germany