Lügendetektor
Falschmeldungen oder Fake-News haben vor allem nach der amerikanischen Präsidentenwahl für viel Aufregung gesorgt. Facebook wurde mit dem Vorwurf konfrontiert, durch die Verbreitung von Lügen die Wahl nachhaltig beeinflusst zu haben. Doch was kann man geg
Über Fake-News in einer postfaktischen Welt
Falschmeldungen in jeder Form existieren, seit die Menschen sich Nachrichten zuschicken. Gibt es also einen Grund, sich jetzt darüber besonders aufzuregen, ein neues Schlagwort zu erfinden oder darüber zu schreiben? Es gibt zumindest gute Anlässe: die amerikanische Präsidentenwahl und die anstehende Bundestagswahl im Herbst. Für die amerikanische Wahl steht der unbestätigte Vorwurf im Raum, dass FakeNews vor allem auf Facebook zum Ausgang der Wahl beigetragen hätten. Dieser Vorwurf fand offensichtlich eine solche Resonanz, dass sich Facebook-Chef Mark Zuckerberg gezwungen sah, in einem Blog-Post darauf einzugehen [goo.gl/iuMoTB]: 99 Prozent der Inhalte auf Facebook seien „authentisch”. Daneben gebe es einen geringen Anteil an Falschmeldungen, der aber – ganz demokratisch – von allen an der amerikanischen Wahl beteiligten Parteien stamme. Das, so Zuckerberg, mache es unwahrscheinlich, dass falsche Facebook-News den Wahlausgang beeinflusst hätten. Der Vorwurf ließ Zuckerberg aber offensichtlich keine Ruhe, sodass er eine knappe Woche später Maßnahmen gegen Falschinformationen in Facebook ankündigte [goo. gl/XWbG5n] – etwa bessere Techniken, um Fake News aufzuspüren, oder eine Überprüfung durch Fact-checkingOrganisatonen – und Anfang 2016 auch durchsetzte. Aber nicht nur Facebook war betroffen, auch Google trug seinen Teil zur Weitergabe falscher Behauptungen bei. Wie die Washington Post berichtete, führte etwa ein Top Link nach der amerikanischen Präsidentenwahl zu einer Seite mit Fake-News, die behauptete, Trump habe sowohl die electoral als auch die popular votes gewonnen [goo.gl/ iZ4xX9].
VORGESCHMACK AUF DIE BUNDESTAGSWAHL?
Eine durch billige Falschmeldungen im Web ferngesteuerte Wahl? Diese Vision beunruhigt kurz vor der Bundestagswahl auch deutsche Politiker und sogar den Bundeswahlleiter Dieter Sarreither. Er warnte in der Frankfurter Allgemeinen Sonntagszeitung vor FakeNews und Hackerangriffen am Wahltag [goo.gl/vVSI7S]. Der Spiegel schreibt unter Berufung auf Beamte aus dem Bundesinnenministerium, dass Innenminister Thomas de Maizière (CDU) ein „Abwehrzentrum gegen Desinformation” plane. Prompt protestierten der IT-Branchenverband Bitkom [goo.gl/HvUVyQ] und der Deutsche Journalistenverband [goo.gl/enQL4B]. Von Zensur war die Rede und von einem „Zensurmonster”. Doch es gibt auch andere Ideen. Das Handelsblatt zitiert Ruprecht Polenz (CDU), der soziale Netzwerke unter das Presserecht stellen möchte [goo.gl/UpJdq8]. Damit bekäme man eine rechtliche
gegen Falschmeldungen wie zum Beispiel bei Zeitungen. Stephan Mayer (CSU) fordert sogar einen neuen Straftatbestand, berichtet Tagesschau.de [goo. gl/SyFuFn], während die SPD auf eine Selbstverpflichtung der Parteien setzt, nicht mit Falschmeldungen zu arbeiten.
FAKE-NEWS IM VORTEIL
Woher kommt die Aufregung? Man muss sich die Diskussion in Amerika ansehen, um die heftigen Reaktionen auch bei europäischen Politikern zu verstehen. Laut einer Statistik des Pew Research Centers von 2016 beziehen 62 Prozent der Amerikaner ihre Nachrichten aus sozialen Netzwerken, davon 18 Prozent nach eigener Auskunft „häufig” [goo.gl/ KM3YNV]. Die Zahlen unterscheiden sich ein wenig zwischen den Netzwerken: Bei Facebook erhalten rund zwei Drittel der Nutzer (66 Prozent) News. Bei Reddit sind es sogar 70 und bei Twitter 59 Prozent. Gleichzeitig benutzen 64 Prozent der Befragten nur eine einzige Site, um sich aktuelle Informationen zu besorgen. Nur zehn Prozent der Befragten sehen auf drei oder mehr Sites nach. Glaubt man der Statistik, sind für viele Amerikaner Facebook, Youtube, Twitter, Instagram oder Reddit zu vielen Themen die einzigen Informationsquellen. In diesem Umfeld wirken Fake-News verheerend. Doch es kommt noch schlimmer: Buzzfeed veröffentlichte eine Statistik [goo.gl/qv6nQO], nach der reißerische Falschmeldungen sich viel weiter verbreiten als seriöse Berichte. Für die Statistik untersuchte Buzzfeed eine Reihe von Sites, die Fake-News verbreiten. Zwischen dem 1. August und dem 8. November 2016, dem Wahltag, wurden Falschmeldungen dieser Sites über acht Millionen Mal auf Facebook geteilt, kommentiert oder mit Likes sowie Dislikes versehen. Im selben Zeitraum hätten die Facebook-Nutzer „nur” auf rund sieben Millionen Meldungen von als seriös wahrgenommenen Medien reagiert. Interessant ist dabei, dass die seriösen Medien vor der Präsidentenwahl bei den Reaktionen weit vorne lagen. Der Zuwachs kam also aller Wahrscheinlichkeit nach von den unseriösen Polit-News. Kann man diese Ergebnisse auf deutsche Verhältnisse anwenden? Nicht ohne Weiteres: In Deutschland sieht die Situation bei den sozialen Netzwerken im Moment noch anders aus. Laut der ARD/ZDFOnlinestudie 2015 suchen 18 Prozent aller Internet-User aktuelle Nachrichten über Social-Media-Dienste [goo. gl/HXet4]. Bei den 14- bis 29-Jährigen ist der Anteil mit 32 Prozent aber fast doppelt so hoch. Bei den 30 bis 49-Jährigen liegt er bei 20 Prozent, bei den 50-Jährigen und älter bei nur 6 Prozent. Laut einer Studie von Birgit Eimeren und Wolfgang Koch schwindet die Nutzung von News in sozialen Netzwerken sogar leicht [goo.gl/c0qaaW]. 2014 lasen 15 Prozent der Onliner mindestens einmal wöchentlich aktuelle Nachrichten in sozialen Netzwerken. 2015 waren es 13 Prozent. Häufiger genutzt werden beispielsweise Suchmaschinen sowie die Internet-Auftritte von Fernsehsendern und Zeitungen. Nicht ganz so ausgeprägt sind die Ergebnisse des Digital News Report 2016 des Reuters Institute; sie gehen aber in eine ähnliche Richtung [goo.gl/eoGjD]. Danach suchen deutsche Online-Nutzer hauptsächlich über Suchmaschinen nach News (37 Prozent), gefolgt von gezielt angesteuerten News-Sites (27 Prozent) und sozialen Netzwerken (21 Prozent). Zum Vergleich: In Amerika steuern 35 Prozent der User gezielt News-Websites an, genauso viele gehen auf soziale Netzwerke. Über Suchmaschinen steigen 30 Prozent ein. Die Hauptinformationsquelle bleibt in Deutschland das Fernsehen. 78 Prozent der Befragten nannten TV als NewsQuelle (Online: 59 Prozent, Print: 38 Prozent), wobei die Nutzung von sozialen Netzwerken zunimmt (31 Prozent), aber langsamer als in anderen Ländern. Die Reuters-Forscher weisen darauf hin, dass Rundfunksender und Verleger den Trend zu sozialen Netzwerken vor allem bei jüngeren Kunden erkannt haben. Es gebe zunehmend Angebote der etablierten News-Lieferanten auch für diese Kanäle. Die Studien sind sich weitgehend einig, dass soziale Netzwerke in Deutschland bis jetzt keine so große Rolle spielen wie beispielsweise in Amerika. Daher ist auch die politische Wirkung von News in diesen Netzwerken vermutlich anders. Trotzdem sollten Falschmeldungen nicht die Tagesdebatte bestimmen. Wie kann man also gegen Fake-News vorgehen?
WAS SIND FAKE-NEWS?
Bevor man darüber spricht, wie man Fake-News bekämpfen kann, sollte man das Schlagwort etwas genauer definieren. Spricht man über Hassbotschaften, also diffamierende Äußerungen über politische Gegner? Spricht man über Online-Meldungen, bei denen sich unbeabsichtigt Recherchefehler eingeschlichen haben? Oder geht es doch eher um bewusste Falschmeldungen und Verdrehungen, in der Absicht, Meinungen zu manipulieren? Welche Rolle spielen Social Bots, also Computerprogramme, die automatisiert Beiträge in Foren oder in sozialen Medien wie Twitter oder Facebook absetzen? Die Unterscheidung ist wichtig. Denn je nachdem, woher die falschen Neuigkeiten kommen, gibt es verschiedene Möglichkeiten, sich dagegen zu wehren. Gegen Verleumdungen und Beleidigungen in jeder Form gibt es eine rechtliche Handhabe nach dem deutHandhabe
schen Strafrecht. Ein Beispiel ist die Grünen-Politikerin Renate Künast. Sie wurde nach dem Mord an einer Studentin in Freiburg damit zitiert, dass man dem mordverdächtigen Flüchtling „helfen müsse”. Dieses Zitat sei frei erfunden, erklärte Künast und stellte Strafanzeige wegen übler Nachrede und anderen Delikten. Der Spiegel berichtet von einem weiteren Fall, in dem ein syrischer Flüchtling ein Selfie mit Bundeskanzlerin Angela Merkel machte [goo.gl/ KDbz6p]. Dieses Foto landete auf Facebook mit der Anmerkung, dass sich die Kanzlerin mit einem der Verdächtigen ablichten lasse, die in Berlin einen Obdachlosen angezündet haben sollen. Der Anwalt des Flüchtlings reichte einen Antrag auf einstweilige Verfügung ein. Gegen sachlich falsche Darstellungen in „Telemedien” mit journalistisch-redaktioneller Berichterstattung, egal ob mit böser Absicht oder nicht, hat jeder Bürger zusätzlich das Recht zur Gegendarstellung. Ein scharfes Schwert – denn eine juristisch korrekt formulierte Gegendarstellung muss kostenlos veröffentlicht werden: genauso groß und prominent wie die beanstandete Meldung. Dabei spielt es keine Rolle, ob deren Inhalt fraglich ist, nur strafbare Behauptungen sind in einer Gegendarstellung ausgeschlossen. Entscheidend ist bei der Gegendarstellung die Frage, ob ein Online-Angebot juristisch ein „Telemedium” ist. Ganz sicher gehören dazu die OnlineAuftritte von Fernsehsendern, Print-Magazinen und Zeitungen. Doch die Grenzen sind verschwommen. Im November 2016 wurde sogar ein Blog vom Berliner Kammergericht zu einer Gegendarstellung verurteilt [goo.gl/2ohL7K]. In diesem Artikel soll es um absichtlich von Menschen verbreitete Falschmeldungen gehen. Dabei werden wir uns auf soziale Netzwerke konzentrieren. Hier hat der Betreiber, also zum Beispiel Facebook, Einfluss auf die geposteten Inhalte. Er kann sie löschen, wenn sie nicht den Richtlinien entsprechen, er kann ihnen ein Rating verleihen oder sie mit Markierungen versehen. Wenn News-Seiten hingegen FakeNews verbreiten, bleibt nur das Mittel der Gegendarstellung oder eine Abmahnung. Verstoßen die Inhalte gar gegen das Strafrecht, gibt es schon jetzt staatliche Behörden, die Nachrichten aus dem Netz nehmen. Bei terroristischer Propaganda und Hassreden wird zum Beispiel die Europol-Einheit EU Internet Referral Unit (EU IRU) tätig [goo.gl/QXFHg4]. Europol spürt diese Inhalte auf und fordert dann die Provider auf, diese freiwillig zu löschen. Außerdem will die EU mit dem 10 Millionen Euro schweren Civil Society Empowerment Programme Organisationen unterstützen, die online gegen Terroristenpropaganda vorgehen [goo.gl/IydjRF].
ALGORITHMEN GEGEN FAKE-NEWS
In Facebook gab es bereits vor der jüngsten Fake-NewsDebatte einige Ansätze, unerwünschte Texte mit Computeralgorithmen zu erfassen. Einer der Algorithmen dient etwa dem Kampf gegen Scherzmeldungen (Hoaxes). Anwender können Geschichten als Spam oder als „Falsch” markieren. Haben genügend Benutzer auf die Markierung geklickt, fügt der Algorithmus eine Anmerkung zur jeweiligen News hinzu, dass sie von vielen Benutzern als „Falsch” markiert wurde. Mit in die Berechnung fließt außerdem ein, wie oft die Nachricht von anderen Anwendern gelöscht wurde. Während sich der Hoax-Mechanismus auf Anwenderberichte verlässt, gibt es einen zweiten Algorithmus, der „Clickbaiting” verhindern soll. Mit Clickbaiting sind nichtssagende, aber reißerische Titel gemeint, die Neugierige anlocken sollen. Um deren Verbreitung zu verhindern, wurde ein lernendes Programm mit von Menschen ausgewählten typischen Lockvogel-Titeln trainiert, sodass es viele Clickbait-News an der Schlagzeile erkennen kann. Facebook stuft Sites, die häufig LockvogelGeschichten veröffentlichen, im News-Ranking zurück. Nach Meinung der Kritiker reichten diese Maßnahmen jedoch nicht aus, um Fake-News im amerikanischen Wahlkampf zu unterbinden. Deshalb kündigte Facebook Ende Januar 2017 weitere Maßnahmen an, auch für Deutschland. Deutsche Anwender können in Zukunft Nachrichten als falsch markieren. Diese werden dann vom Recherchezentrum Correctiv im Auftrag von Facebook auf Wahrheit geprüft [goo.gl/sQuHCx]. Sollte die Prüfung negativ ausfallen, wird die Nachricht aber nicht gelöscht. Facebook-Nutzer sollen die Meldung weiterhin lesen und weitergeben können. Der News soll jedoch ein Warnhinweis angeheftet werden, in dem darauf hingewiesen wird, dass der jeweilige
Inhalt umstritten ist. Eventuell wird es auch einen Link auf Nachrichtenquellen geben, welche die Fakten richtigstellen. Doch es gibt auch härtere Maßnahmen: Bei unsinnigen Meldungen könne auch „deren Sichtbarkeit verringert werden”, wird Facebook-Manager Guido Bülow zitiert. Ein ähnliches Modell kam schon zuvor in den Vereinigten Staaten zum Einsatz. Hier will Facebook mit Faktenprüfern zusammenarbeiten, die sich an die Prinzipien des Internationalen Fact Checker Networks (IFCN) halten [goo.gl/AXzyMJ].
STUDENTEN GEGEN FAKE-NEWS
Nicht nur IT-Profis befassen sich mit der Fake-News-Problematik. Studenten der University of Massachusetts entwickelten in einem 36-Stunden Hackathon eine Browser-Erweiterung für Chrome namens „FiB”, die versucht, FacebookMeldungen über Quellen im Web zu verifizieren. Das Ergebnis wird dann über eine entsprechende Meldung im Browser angezeigt („verified oder „not verified”, goo.gl/ H0fGsh). Wie funktioniert das? Nach Angaben der Entwickler liest das Plugin die FacebookNews und gibt sie dann an einen Server im Web weiter. Dieser versucht über WebDienste wie zum Beispiel Microsoft Cognitive Services den Inhalt der News zu ermitteln. Danach überprüft ein Algorithmus im Web Links, Bilder und Twitter-Feeds auf Ihre Echtheit. Findet er die angegebenen Quellen nicht, bekommt die News das Prädikat „nicht verifiziert”; als Warnung, dass es sich hier möglicherweise um eine Fake-News handelt. Das Projekt existiert zurzeit noch in seiner ursprünglichen Hackathon-Version und harrt auf weitere Entwicklung. Ein weiterer automatisierter Faktenchecker im Projektstadium ist Factmata [factmata. com]. Weitere Tools könnten aus Wettbewerben wie HeroX [herox.com/factcheck], der Fake News Challenge [fakenewschallenge.org] oder dem FactHack-Hackathon [goo.gl/ EzPkCj] hervorgehen.
COMPUTER BESSER ALS MENSCHEN
Computer haben es schwer, wenn es um das Verstehen menschlicher Sprache und besonders wenn es um Wahrheit geht. Algorithmen haben aber einen Vorteil gegenüber menschlichen Moderatoren oder, wenn man so will, „Zensoren”: Sie sind in der Regel zunächst einmal unparteiisch. Es sei denn, der Algorithmus wurde absichtlich „parteiisch” programmiert, zum Beispiel wenn Sie ein Computerprogramm darauf trainieren würden, News aus dem rechtskonservativen Spektrum zu erkennen. Dabei muss nicht einmal böse Absicht vorliegen. Wird ein lernender Algorithmus mit ausgewählten Falschmeldungs-Beispielen gefüttert, kann es immer sein, dass die Ansichten des Teams, das die Meldungen ausgewählt hat, vom Algorithmus „übernommen” werden. Diesen Vorwurf kann man den erwähnten Facebook-Algorithmen aber bisher nicht machen. Zumindest wurde er noch von keiner Seite erhoben. Schwierigkeiten gab es hingegen mit einem menschlichen Moderatoren-Team. Gizmodo berichtete im Mai 2016 über Manipulationen des menschlichen Kuratoren-Teams, das die „Trending Topics” in der amerikanischen Facebook-Version betreut [goo.gl/bDEI2w]. Danach seien gezielt News aus konservativen Quellen gelöscht worden. Zusätzlich habe man eigene News „injiziert”, die in dieser Form in der Facebook-Gemeinde nicht aufgetaucht waren. Nachrichten über Facebook selbst seien gezielt unterdrückt worden. Facebook hat diese Vorwürfe zurückgewiesen. Man sei in Trending Topics immer neutral gewesen, konservative und liberale Meldungen hätten sich die Waage gehalten. Doch im August 2016 gab es eine Änderung bei „Trending”. Der Dienst wurde danach „algorithmischer”. Es seien immer noch Menschen beteiligt, die für Qualitätsstandards sorgen sollten. Sie müssten aber weniger „individuelle Entscheidungen” treffen.
FAKTEN UNTER DER LUPE
Fake-News zu erkennen ist gar nicht so schwer. Der Leser muss sich nur ein paar einfache Fragen stellen: Welche Quellen sind in der Nachricht angegeben? Gibt es diese Quellen überhaupt (Link verfolgen)? Sind sie glaubwürdig? Gibt es noch weitere seriöse Quellen, welche die aufgestellten Behauptungen belegen? Aber Achtung: Nur weil eine Meldung auf mehreren Kanälen auftaucht, muss sie nicht richtig sein. Sites schreiben voneinander ab, was Sie daran erkennen, dass sie sich auf dieselben externen Quellen oder aufeinander berufen. Fragen Sie sich auch, wie nahe eine Quelle am tatsächlichen Geschehen war. Hat die Quelle ein Eigeninteresse, oder ist sie (vermutlich) unbeteiligt? Hilfreich kann auch eine Rückwärtssuche von Bildern oder Videovorschaubildern mit Google sein [images.google. com]. So können Sie manchmal erkennen, ob ein angeblich aktuelles Bild schon sehr alt oder eine Fotomontage aus ähnlichen Bildern ist. Die Nachrecherche müssen Sie im günstigsten Fall gar nicht selbst erledigen. Es gibt mittlerweile weltweit eine wachsende Zahl von Diensten, die sich der Überprüfung von Fakten widmen. Das American Press Institute stellt gerade auch in Amerika ein starkes Wachstum von Fact-Checking-Projekten fest. Eine Liste ausgewählter „Faktenprüfer” finden Sie zum Beispiel bei Poynter [goo. gl/AXzyMJ]. In Deutschland existiert neben Correctiv zum Beispiel bildblog.de. Auch Presseagenturen, Verlage und Fernsehsender wollen falsche Nachrichten kritisch beleuchten. Dafür hat sich im Sep-
tember 2016 das „First Draft Partner Network” gebildet, ein Zusammenschluss von Medien, sozialen Netzwerken, FactCheck-Projekten und Bürgerrechtlern [firstdraftnews.com]. Das Netzwerk soll Richtlinien herausgeben und Hilfe bei der Bekämpfung von Falschnachrichten leisten. Sogar die Polizei betätigt sich gelegentlich als Fakten-Checker und macht sich auf Jagd nach Falschnachrichten im Web. Ein Beispiel ist die Polizeiinspektion Rosenheim, die eine Facebook-Falschmeldung über ein angebliches Verbrechen in Mühldorf mit einem roten „Falschmeldung”-Balken verzierte und auf ihre Website stellte [goo.gl/L2tttx]. Doch können diese Tatsachenprüfer überhaupt etwas ausrichten? Schließlich behaupten einige, dass wir in einem „postfaktischen” Zeitalter leben. Dieser umstrittene Begriff – und Wort des Jahres 2016 – soll bedeuten, dass sich viele Menschen bei der Beurteilung von Nachrichten eher von ihren Gefühlen und nicht von nachvollziehbaren Fakten leiten lassen. Ist das wirklich so? Sind viele Menschen durch rationale Argumente und präsentierte Fakten nicht mehr zu erreichen? Das American Press Institute liefert hier ein differenzierteres Bild der Situation in den USA [goo.gl/UQzkqP]. Zunächst gibt es bei den Fakten-Checkern ein Vermittlungsproblem: Nur wenigen Amerikanern (etwa 50 Prozent) sind laut einer Studie von Brendan Nyhan und Jason Reifler vom August 2016 Faktenprüfungs-Projekte bekannt [goo.gl/69l1MJ]. Mehr als 80 Prozent der Befragten finden die Idee aber gut. Über 90 Prozent der Teilnehmer, die solche Projekte tatsächlich kennen, schätzen diese positiv ein. Die Forscher führten auch eine Befragung durch, um den Wissensgewinn durch die Recherche zu testen. Tatsächlich erzielten die Probanden nach dem Studium von Fact-CheckSites bessere Testwerte im Bereich von 11 bis 28 Prozent. Doch es gibt auch Schattenseiten: Republikaner beurteilten die Faktenprüfer tendenziell schlechter als Demokraten. Die politische Ausrichtung hat also einen starken Effekt auf die Wirkung der Faktenprüfer. Ein weiteres Problem: Teilnehmer der Studie, die nach einem Test als politisch weniger gebildet eingestuft wurden, können alternativen Informationsangeboten meist wenig abgewinnen. Auch der Lerneffekt durch die WebRecherche war tendenziell schlechter. Glaubt man dieser Studie, wäre diese Bevölkerungsgruppe durch politische Aufklärung und Informationskampagnen zumindest schlecht erreichbar. Ein Randphänomen: Laut einer Studie der Rider University vom Februar 2015 („The Effectiveness and Effects of Rating Scale”) sind Berichte, die Fakten richtigstellen, besonders effektiv, wenn sie eine Lügenskala benutzen. Ein Beispiel ist das Pinocchio-Rating der Washington Post. Je „größer” die Unwahrheit, desto mehr Pinocchios erhält ein Bericht [goo.gl/QXbyni]. Diese Ergebnisse beziehen sich natürlich auf amerikanische Verhältnisse. Man kann sie sicher nicht eins zu eins auf Deutschland übertragen. Sie sollen nur einen Einblick geben, welche Wirkungen Faktenprüfungen im Web haben können.
UNTERNEHMEN GEGEN FAKE-NEWS
Falschnachrichten als solche zu entlarven, ist eine gute Sache. Besser wäre es, wenn sie gar nicht erst erschienen. Facebook und Google haben sich deshalb laut einem Bericht der New York Times im November 2016 verbündet, um FakeNews-Produzenten finanziell auszubluten: durch den Entzug von Werbeeinnahmen [goo.gl/ R8IEwZ]. Facebook will keine
Anzeigen des hauseigenen Audience Networks auf Sites mit Fake-News zulassen [goo. gl/csJRkz]. Facebook wird also keine Werbung an diese Sites weitervermitteln. Dafür wurden eigens die Richtlinien des Werbenetzes angepasst, die jetzt explizit „Fake-News” ausschließen. Dasselbe gilt auch für Googles Werbenetz AdSense. Das Unternehmen will keine Werbung(en) auf Sites bringen, „welche ihre Urheber und Quellen verschweigen sowie irreführend oder falsch darstelIen”. Ob die Maßnahmen erfolgreich sind, wird sich zeigen. Falschnachrichten im Web lassen sich leicht identifizieren. Es gibt viele Informationsquellen, von den traditionellen News-Portalen der Verlage und Fernsehsender bis hin zu Fact-Checking-Projekten, mit denen Anwender gelesene Nachrichten überprüfen können. Kuratoren sind in der Lage, mit der Unterstützung von Algorithmen Fake-News aufzuspüren und als falsch oder zumindest kontrovers zu markieren. Zum Schluss bleiben auch noch rechtliche Schritte wie Abmahnungen, Verleumdungsklagen oder Gegendarstellungen. Was nützt das, wenn die Anwender diese Informationen nicht zur Kenntnis nehmen? Das Stich- oder Schlagwort heißt hier „postfaktische Welt”. Dem muss man Statistiken entgegenhalten, die nahelegen, dass viele Menschen bereit sind, die Informationsangebote zu nutzen: Sie informieren sich – zumindest in Deutschland – auch nicht vorwiegend über soziale Netzwerke, sondern über Suchmaschinen, News-Portale oder andere Medien wie Fern- sehen, Radio und Zeitungen. Diese Gesichtspunkte sollte man berücksichtigen, wenn man härtere Maßnahmen gegen Fake-News fordert, wie zum Beispiel Strafrechtsverschärfungen oder sogar ein staatliches Abwehrzentrum.
Abb. 1: Politifact ist eine amerikanische Fact-Check-Site, die sich ausschließlich mit der Überprüfung von Nachrichten und Politikerzitaten beschäftigt.
Abb. 2: Die EU East StratCom Task Force der Europäischen Union betreibt eine eigene Website, um gegen russische Web-Propaganda vorzugehen [euvsdisinfo.eu].
Abb. 3: Das deutsche Correctiv-Projekt [correctiv.org] soll Fake-News überprüfen, die auf Facebook erscheinen. Finden die Correctiv-Journalisten falsche Informationen, werden Meldungen gekennzeichnet.
Abb. 4: FiB ist ein Plugin für den Chrome-Browser. Es wurde von Studenten bei einem Hackathon 2016 entwickelt und kann automatisch Nachrichtenquellen im Web überprüfen.
Abb. 6: Alexios Mantzarlis, hier seine Twitter-Seite, ist der Chef des International Fact-Checking Network (IFCN), eines internationalen Zusammenschlusses von Faktenprüfungsprojekten.
Abb. 5: Bei der Fake News Challenge arbeiten 100 Freiwillige und 71 Teams aus Wissenschaft und Industrie daran, Fake News und Hoaxes schneller identifizieren zu können [fakenewschallenge.org].
Abb. 7: Das First-Draft-Partnernetzwerk soll Journalisten dabei unterstützen, Fake-News zu erkennen und effektiv zu bekämpfen.
Abb. 8: Die Washington Post bewertet den Wahrheits- oder Falschheitsgehalt von Meldungen mit einem Pinocchio-Meter. Vier Pinocchios bedeuten grobe Fehlinformationen.