Martin Koch Von Foto-Retuschen zu Fake-Videos
Fotoretuschen waren nur der Anfang – jetzt kommen täuschend echt gefälschte Videos.
Im April 2018, gut ein Jahr nach seinem Abschied als US-Präsident, meldete sich Barack Obama per Video zu Wort. Perfekt gestylt wie immer sprach er mit sanfter Stimme: »Donald Trump ist ein totaler und kompletter Vollidiot.«
Nun mag es sein, dass Obama über Trump so denkt. Doch würde er das öffentlich äußern? Die Antwort folgte sogleich. »Sehen Sie«, erklärte Obama, »natürlich würde ich so etwas nie sagen. Jedenfalls nicht in einer öffentlichen Ansprache. Aber jemand anderes würde es tun.« An dieser Stelle erschien der Filmemacher Jordan Peele im Bild, der das inzwischen millionenfach angeklickte Video zusammen mit dem Medienunternehmen BuzzFeed produziert hatte. Mithilfe einer Software war dabei eine echte ObamaRede so manipuliert worden, dass die Mundund Handbewegungen beider ineinander verschmolzen. Obama redete also mit Peeles bearbeiteter Stimme. Dieser hatte dem ExPräsidenten den bösen Satz über seinen Nachfolger in den Mund gelegt.
Dass sich Fotos beinahe perfekt fälschen lassen, weiß man längst. Nun jedoch ist Gleiches aber auch für Filmaufnahmen möglich geworden. Und das mit relativ geringem Aufwand. Peele und BuzzFeed benötigten für das Obama-Video kein teures Spezialprogramm, sondern nur eine kostenlose Software – sowie 56 Stunden zur Berechnung und Feinabstimmung. Zwar sind die Ergebnisse noch verbesserungsfähig: So erkennt man bei näherem Hinsehen, dass Obamas Mund manchmal kurz zur Seite verrutscht. »Doch das wird sich geben«, glaubt die Wissenschaftspublizistin Brooke Borel, die sich mit dem Einfluss der Künstlichen Intelligenz (KI) auf menschliche Kommunikation befasst: »Aller Wahrscheinlichkeit nach wird sich die nächste Generation dieser Softwarewerkzeuge nicht mehr auf die Manipulation vorhandenen Materials beschränken, sondern von Grund auf neue Szenen erschaffen können, die in Wirklichkeit nie stattgefunden haben, nicht einmal ansatzweise.«
Das Problem der »Fake News« erreicht damit eine neue Dimension. Denn Videos, zumal solche, die Eingang in die Nachrichten finden, gelten gemeinhin als verlässliche Quellen. Zwar gibt es mitunter Streit über die Urheber und deren Absichten – am Inhalt selbst aber zweifeln nur die Allerwenigsten. Das Medium Video suggeriert ja, man wäre quasi selbst dabei gewesen. Manche halten das in bewegten Bildern Gesehene selbst dann noch für wahr, wenn ruchbar wird, dass es tatsächlich eine Fälschung ist. »Werden wir am Ende unter der Masse der Fälschungen gar nicht mehr glauben, was wir sehen und hören – auch die Wahrheit nicht?«, fragt daher Borel.
Das ist nicht aus der Luft gegriffen. Bekanntlich weigern sich bis heute zahllose Verschwörungstheoretiker anzuerkennen, dass am 16. Juli 1969 erstmals zwei US-amerikanische Astronauten auf dem Mond landeten: All das sei nur ein gigantisches Täuschungsmanöver der US-Regierung gewesen – hätte doch niemand mit damaliger Technik einen Menschen auf den Erdtrabanten und zurück befördern können. Und die Filmaufnahmen, die fast schwerelos sich bewegende Astronauten auf der Mondoberfläche zeigen? Verschwörungstheoretiker halten sie für manipuliert. Dabei hat ein ausgewiesener Fachmann für filmische Spezialeffekte, nämlich der Regisseur Roland Emmerich, bereits vor Jahren erklärt: Mit der Filmtechnik von 1969 hätte man derartige Sequenzen niemals in einem Studio herstellen können.
Inzwischen wäre das freilich kein Problem mehr. So wie es möglich ist, beliebige Personen in pornografische oder andere Streifen zu schneiden, ohne dass jemand den Betrug bemerkt. Seit Ende 2017 überfluten solche als »Deepfakes« bezeichneten Manipulationen das Internet. Sie zeigen beispielsweise die Schauspielerin Scarlett Johansson und die Sängerin Taylor Swift in unvorteilhaften erotischen Posen. Doch nicht nur Prominente sind das Ziel solcher Fälschungen. Im Grunde kann es jeden treffen. Besonders gefährdet sind dabei Menschen, die viele »Selfies« von sich ins Netz stellen. Denn um ein »Deepfake« herzustellen, braucht man nur einen Rechner, eine leistungsfähige Software sowie ausreichend Fotomaterial vom potenziellen Opfer.
Was für Bilder gilt, gilt nicht minder für Tonaufnahmen. Im Mai 2018 stellte Google auf einer Konferenz das KI-Assistenzprogramm »Duplex« vor, das am Telefon wie ein echter Mensch klingt. Der Grund: Anders als die üblichen Roboterstimmen fügt Duplex Unregelmäßigkeiten, Sprechpausen sowie gelegentlich ein gemurmeltes »äh« oder »hm« in seine Sätze ein. Dadurch bekommt der Hörer das Gefühl, dass die KI wirklich auf ihn eingeht und ihm Gelegenheit gibt, das Gesagte zu verstehen. Solche Programme dürften es Personen mit kriminellen Absichten künftig erleichtern, andere am Telefon zu täuschen und zu betrügen.
Im Gegenzug suchen Wissenschaftler natürlich auch nach technischen Möglichkeiten, die es gestatten, Original und Fälschung zweifelsfrei zu unterscheiden. Das Ganze ähnelt einem Hase-und-Igel-Rennen, wie das Beispiel der generativen Netzwerke verdeutlicht. Diese können einen Computer dazu bringen, eigenständig und ohne Vorlage Fotos zu erzeugen. Lange waren solche Fotos unscharf und fehlerbehaftet. Deshalb ließ ein Team um den US-Informatiker Ian Goodfellow 2014 zwei solche Netzwerke miteinander konkurrieren. Das inzwischen erfolgreich angewandte Verfahren beruht auf folgendem Prinzip: Das erste Netzwerk, der so- genannte Generator, erzeugt gefälschte Bilder. Das zweite, der Diskriminator, vergleicht das Ergebnis mit echten Bildern aus der Trainingssammlung und versucht, Original und Fälschung zu unterscheiden. Sobald nun der Diskriminator das Bild als Fake entlarvt hat, wird es allerdings vom Generator verändert, um die Schwachstellen seiner Fälschung zu beseitigen. Das geht solange, bis der Diskriminator nicht mehr entscheiden kann, ob das Bild gefälscht ist: Der Generator siegt.
Fake News, die als solche nicht mehr zu erkennen wären, hätten verheerende Folgen für den gesellschaftlichen Diskurs, meint naheliegenderweise die Forscherin Borel. Zumal sich heute immer mehr Menschen von den traditionellen Massenmedien abwendeten. In den USA etwa sieht nur noch die Hälfte der Erwachsenen die Fernsehnachrichten. Die andere Hälfte bezieht ihre Informationen großenteils aus den sozialen Medien, die Nutzern häufig »alternative Realitäten« präsentieren, in denen Falschnachrichten wie in »Echokammern« miteinander kommunizieren. Eine demokratische Entscheidungsfindung werde unter solchen Umständen schwierig, betont auch der Kommunikati- onswissenschaftler Carsten Reinemann: »Sowohl wir als Bürger als auch die politischen Entscheidungsträger sind in einer Demokratie darauf angewiesen, dass wir uns zu einem gewissen Grad einig sind, was die Realität dort draußen eigentlich ist.«
Wie fatal das Zusammenspiel von Realitätsverweigerung und Vernetzung sein kann, offenbarte unlängst der Wahlkampf in Brasilien. 156 Unternehmer finanzierten hier mit umgerechnet drei Millionen Euro eine FakeNews-Kampagne zur Unterstützung des rechtspopulistischen Präsidentschaftskandidaten Jair Bolsonaro. Dabei wurden auch zahlreiche gefälschte Videobotschaften über die sozialen Medien verbreitet, denen viele Brasilianer offenbar Glauben schenkten. Das hat Bolsonaros Wahlsieg begünstigt.
In der Bundesrepublik finden demnächst ebenfalls Wahlen statt, darunter im Mai 2019 die zum Europäischen Parlament. Zwar besteht auch hier die Gefahr, dass Fake News Einfluss auf das Ergebnis nehmen. Gleichwohl gibt sich Reinemann optimistisch: »Wir haben in Deutschland immer noch den Vorteil einer breiten und sehr vielfältigen Medienlandschaft, die versuchen kann, dagegen zu halten.«
»Aller Wahrscheinlichkeit nach wird sich die nächste Generation dieser Softwarewerkzeuge nicht mehr auf die Manipulation vorhandenen Materials beschränken, sondern von Grund auf neue Szenen erschaffen können, die in Wirklichkeit nie stattgefunden haben, nicht einmal ansatzweise.«
Brooke Borel