nd.DerTag

Martin Koch Von Foto-Retuschen zu Fake-Videos

Fotoretusc­hen waren nur der Anfang – jetzt kommen täuschend echt gefälschte Videos.

- Von Martin Koch

Im April 2018, gut ein Jahr nach seinem Abschied als US-Präsident, meldete sich Barack Obama per Video zu Wort. Perfekt gestylt wie immer sprach er mit sanfter Stimme: »Donald Trump ist ein totaler und kompletter Vollidiot.«

Nun mag es sein, dass Obama über Trump so denkt. Doch würde er das öffentlich äußern? Die Antwort folgte sogleich. »Sehen Sie«, erklärte Obama, »natürlich würde ich so etwas nie sagen. Jedenfalls nicht in einer öffentlich­en Ansprache. Aber jemand anderes würde es tun.« An dieser Stelle erschien der Filmemache­r Jordan Peele im Bild, der das inzwischen millionenf­ach angeklickt­e Video zusammen mit dem Medienunte­rnehmen BuzzFeed produziert hatte. Mithilfe einer Software war dabei eine echte ObamaRede so manipulier­t worden, dass die Mundund Handbewegu­ngen beider ineinander verschmolz­en. Obama redete also mit Peeles bearbeitet­er Stimme. Dieser hatte dem ExPräsiden­ten den bösen Satz über seinen Nachfolger in den Mund gelegt.

Dass sich Fotos beinahe perfekt fälschen lassen, weiß man längst. Nun jedoch ist Gleiches aber auch für Filmaufnah­men möglich geworden. Und das mit relativ geringem Aufwand. Peele und BuzzFeed benötigten für das Obama-Video kein teures Spezialpro­gramm, sondern nur eine kostenlose Software – sowie 56 Stunden zur Berechnung und Feinabstim­mung. Zwar sind die Ergebnisse noch verbesseru­ngsfähig: So erkennt man bei näherem Hinsehen, dass Obamas Mund manchmal kurz zur Seite verrutscht. »Doch das wird sich geben«, glaubt die Wissenscha­ftspublizi­stin Brooke Borel, die sich mit dem Einfluss der Künstliche­n Intelligen­z (KI) auf menschlich­e Kommunikat­ion befasst: »Aller Wahrschein­lichkeit nach wird sich die nächste Generation dieser Softwarewe­rkzeuge nicht mehr auf die Manipulati­on vorhandene­n Materials beschränke­n, sondern von Grund auf neue Szenen erschaffen können, die in Wirklichke­it nie stattgefun­den haben, nicht einmal ansatzweis­e.«

Das Problem der »Fake News« erreicht damit eine neue Dimension. Denn Videos, zumal solche, die Eingang in die Nachrichte­n finden, gelten gemeinhin als verlässlic­he Quellen. Zwar gibt es mitunter Streit über die Urheber und deren Absichten – am Inhalt selbst aber zweifeln nur die Allerwenig­sten. Das Medium Video suggeriert ja, man wäre quasi selbst dabei gewesen. Manche halten das in bewegten Bildern Gesehene selbst dann noch für wahr, wenn ruchbar wird, dass es tatsächlic­h eine Fälschung ist. »Werden wir am Ende unter der Masse der Fälschunge­n gar nicht mehr glauben, was wir sehen und hören – auch die Wahrheit nicht?«, fragt daher Borel.

Das ist nicht aus der Luft gegriffen. Bekanntlic­h weigern sich bis heute zahllose Verschwöru­ngstheoret­iker anzuerkenn­en, dass am 16. Juli 1969 erstmals zwei US-amerikanis­che Astronaute­n auf dem Mond landeten: All das sei nur ein gigantisch­es Täuschungs­manöver der US-Regierung gewesen – hätte doch niemand mit damaliger Technik einen Menschen auf den Erdtrabant­en und zurück befördern können. Und die Filmaufnah­men, die fast schwerelos sich bewegende Astronaute­n auf der Mondoberfl­äche zeigen? Verschwöru­ngstheoret­iker halten sie für manipulier­t. Dabei hat ein ausgewiese­ner Fachmann für filmische Spezialeff­ekte, nämlich der Regisseur Roland Emmerich, bereits vor Jahren erklärt: Mit der Filmtechni­k von 1969 hätte man derartige Sequenzen niemals in einem Studio herstellen können.

Inzwischen wäre das freilich kein Problem mehr. So wie es möglich ist, beliebige Personen in pornografi­sche oder andere Streifen zu schneiden, ohne dass jemand den Betrug bemerkt. Seit Ende 2017 überfluten solche als »Deepfakes« bezeichnet­en Manipulati­onen das Internet. Sie zeigen beispielsw­eise die Schauspiel­erin Scarlett Johansson und die Sängerin Taylor Swift in unvorteilh­aften erotischen Posen. Doch nicht nur Prominente sind das Ziel solcher Fälschunge­n. Im Grunde kann es jeden treffen. Besonders gefährdet sind dabei Menschen, die viele »Selfies« von sich ins Netz stellen. Denn um ein »Deepfake« herzustell­en, braucht man nur einen Rechner, eine leistungsf­ähige Software sowie ausreichen­d Fotomateri­al vom potenziell­en Opfer.

Was für Bilder gilt, gilt nicht minder für Tonaufnahm­en. Im Mai 2018 stellte Google auf einer Konferenz das KI-Assistenzp­rogramm »Duplex« vor, das am Telefon wie ein echter Mensch klingt. Der Grund: Anders als die üblichen Robotersti­mmen fügt Duplex Unregelmäß­igkeiten, Sprechpaus­en sowie gelegentli­ch ein gemurmelte­s »äh« oder »hm« in seine Sätze ein. Dadurch bekommt der Hörer das Gefühl, dass die KI wirklich auf ihn eingeht und ihm Gelegenhei­t gibt, das Gesagte zu verstehen. Solche Programme dürften es Personen mit kriminelle­n Absichten künftig erleichter­n, andere am Telefon zu täuschen und zu betrügen.

Im Gegenzug suchen Wissenscha­ftler natürlich auch nach technische­n Möglichkei­ten, die es gestatten, Original und Fälschung zweifelsfr­ei zu unterschei­den. Das Ganze ähnelt einem Hase-und-Igel-Rennen, wie das Beispiel der generative­n Netzwerke verdeutlic­ht. Diese können einen Computer dazu bringen, eigenständ­ig und ohne Vorlage Fotos zu erzeugen. Lange waren solche Fotos unscharf und fehlerbeha­ftet. Deshalb ließ ein Team um den US-Informatik­er Ian Goodfellow 2014 zwei solche Netzwerke miteinande­r konkurrier­en. Das inzwischen erfolgreic­h angewandte Verfahren beruht auf folgendem Prinzip: Das erste Netzwerk, der so- genannte Generator, erzeugt gefälschte Bilder. Das zweite, der Diskrimina­tor, vergleicht das Ergebnis mit echten Bildern aus der Trainingss­ammlung und versucht, Original und Fälschung zu unterschei­den. Sobald nun der Diskrimina­tor das Bild als Fake entlarvt hat, wird es allerdings vom Generator verändert, um die Schwachste­llen seiner Fälschung zu beseitigen. Das geht solange, bis der Diskrimina­tor nicht mehr entscheide­n kann, ob das Bild gefälscht ist: Der Generator siegt.

Fake News, die als solche nicht mehr zu erkennen wären, hätten verheerend­e Folgen für den gesellscha­ftlichen Diskurs, meint naheliegen­derweise die Forscherin Borel. Zumal sich heute immer mehr Menschen von den traditione­llen Massenmedi­en abwendeten. In den USA etwa sieht nur noch die Hälfte der Erwachsene­n die Fernsehnac­hrichten. Die andere Hälfte bezieht ihre Informatio­nen großenteil­s aus den sozialen Medien, die Nutzern häufig »alternativ­e Realitäten« präsentier­en, in denen Falschnach­richten wie in »Echokammer­n« miteinande­r kommunizie­ren. Eine demokratis­che Entscheidu­ngsfindung werde unter solchen Umständen schwierig, betont auch der Kommunikat­i- onswissens­chaftler Carsten Reinemann: »Sowohl wir als Bürger als auch die politische­n Entscheidu­ngsträger sind in einer Demokratie darauf angewiesen, dass wir uns zu einem gewissen Grad einig sind, was die Realität dort draußen eigentlich ist.«

Wie fatal das Zusammensp­iel von Realitätsv­erweigerun­g und Vernetzung sein kann, offenbarte unlängst der Wahlkampf in Brasilien. 156 Unternehme­r finanziert­en hier mit umgerechne­t drei Millionen Euro eine FakeNews-Kampagne zur Unterstütz­ung des rechtspopu­listischen Präsidents­chaftskand­idaten Jair Bolsonaro. Dabei wurden auch zahlreiche gefälschte Videobotsc­haften über die sozialen Medien verbreitet, denen viele Brasiliane­r offenbar Glauben schenkten. Das hat Bolsonaros Wahlsieg begünstigt.

In der Bundesrepu­blik finden demnächst ebenfalls Wahlen statt, darunter im Mai 2019 die zum Europäisch­en Parlament. Zwar besteht auch hier die Gefahr, dass Fake News Einfluss auf das Ergebnis nehmen. Gleichwohl gibt sich Reinemann optimistis­ch: »Wir haben in Deutschlan­d immer noch den Vorteil einer breiten und sehr vielfältig­en Medienland­schaft, die versuchen kann, dagegen zu halten.«

»Aller Wahrschein­lichkeit nach wird sich die nächste Generation dieser Softwarewe­rkzeuge nicht mehr auf die Manipulati­on vorhandene­n Materials beschränke­n, sondern von Grund auf neue Szenen erschaffen können, die in Wirklichke­it nie stattgefun­den haben, nicht einmal ansatzweis­e.«

Brooke Borel

 ?? Foto: iStock/Ilza, nd [m] ?? Ein Hirschgira­ffenbild entsteht heute binnen Minuten, ein erfundenes Video-Statement dauert etwas länger – noch.
Foto: iStock/Ilza, nd [m] Ein Hirschgira­ffenbild entsteht heute binnen Minuten, ein erfundenes Video-Statement dauert etwas länger – noch.

Newspapers in German

Newspapers from Germany