Lü­gen­de­tek­tor

Fal­sch­mel­dun­gen oder Fake-News ha­ben vor al­lem nach der ame­ri­ka­ni­schen Prä­si­den­ten­wahl für viel Auf­re­gung ge­sorgt. Face­book wur­de mit dem Vor­wurf kon­fron­tiert, durch die Ver­brei­tung von Lü­gen die Wahl nach­hal­tig be­ein­flusst zu ha­ben. Doch was kann man geg

SCREENGUIDE - - Inneres - TEXT: Jan Ka­den

Über Fake-News in ei­ner post­fak­ti­schen Welt

Fal­sch­mel­dun­gen in je­der Form exis­tie­ren, seit die Men­schen sich Nach­rich­ten zu­schi­cken. Gibt es al­so ei­nen Grund, sich jetzt dar­über be­son­ders auf­zu­re­gen, ein neu­es Schlag­wort zu er­fin­den oder dar­über zu schrei­ben? Es gibt zu­min­dest gu­te An­läs­se: die ame­ri­ka­ni­sche Prä­si­den­ten­wahl und die an­ste­hen­de Bun­des­tags­wahl im Herbst. Für die ame­ri­ka­ni­sche Wahl steht der un­be­stä­tig­te Vor­wurf im Raum, dass Fa­keNews vor al­lem auf Face­book zum Aus­gang der Wahl bei­ge­tra­gen hät­ten. Die­ser Vor­wurf fand of­fen­sicht­lich ei­ne sol­che Re­so­nanz, dass sich Face­book-Chef Mark Zu­cker­berg ge­zwun­gen sah, in ei­nem Blog-Post dar­auf ein­zu­ge­hen [goo.gl/iuMoTB]: 99 Pro­zent der In­hal­te auf Face­book sei­en „au­then­tisch”. Da­ne­ben ge­be es ei­nen ge­rin­gen An­teil an Fal­sch­mel­dun­gen, der aber – ganz de­mo­kra­tisch – von al­len an der ame­ri­ka­ni­schen Wahl be­tei­lig­ten Par­tei­en stam­me. Das, so Zu­cker­berg, ma­che es un­wahr­schein­lich, dass fal­sche Face­book-News den Wahl­aus­gang be­ein­flusst hät­ten. Der Vor­wurf ließ Zu­cker­berg aber of­fen­sicht­lich kei­ne Ru­he, so­dass er ei­ne knap­pe Wo­che spä­ter Maß­nah­men ge­gen Falsch­in­for­ma­tio­nen in Face­book an­kün­dig­te [goo. gl/XWbG5n] – et­wa bes­se­re Tech­ni­ken, um Fake News auf­zu­spü­ren, oder ei­ne Über­prü­fung durch Fact-che­ckin­gOr­ga­ni­sa­to­nen – und An­fang 2016 auch durch­setz­te. Aber nicht nur Face­book war be­trof­fen, auch Goog­le trug sei­nen Teil zur Wei­ter­ga­be fal­scher Be­haup­tun­gen bei. Wie die Washington Post be­rich­te­te, führ­te et­wa ein Top Link nach der ame­ri­ka­ni­schen Prä­si­den­ten­wahl zu ei­ner Sei­te mit Fake-News, die be­haup­te­te, Trump ha­be so­wohl die elec­to­ral als auch die po­pu­lar vo­tes ge­won­nen [goo.gl/ iZ4xX9].

VORGESCHMACK AUF DIE BUN­DES­TAGS­WAHL?

Ei­ne durch bil­li­ge Fal­sch­mel­dun­gen im Web fern­ge­steu­er­te Wahl? Die­se Vi­si­on be­un­ru­higt kurz vor der Bun­des­tags­wahl auch deut­sche Po­li­ti­ker und so­gar den Bun­des­wahl­lei­ter Die­ter Sar­reit­her. Er warn­te in der Frank­fur­ter All­ge­mei­nen Sonn­tags­zei­tung vor Fa­keNews und Ha­cker­an­grif­fen am Wahl­tag [goo.gl/vVSI7S]. Der Spie­gel schreibt un­ter Be­ru­fung auf Be­am­te aus dem Bun­des­in­nen­mi­nis­te­ri­um, dass In­nen­mi­nis­ter Tho­mas de Mai­ziè­re (CDU) ein „Ab­wehr­zen­trum ge­gen Des­in­for­ma­ti­on” pla­ne. Prompt pro­tes­tier­ten der IT-Bran­chen­ver­band Bit­kom [goo.gl/HvUVyQ] und der Deut­sche Jour­na­lis­ten­ver­band [goo.gl/en­QL4B]. Von Zen­sur war die Re­de und von ei­nem „Zen­sur­mons­ter”. Doch es gibt auch an­de­re Ide­en. Das Han­dels­blatt zi­tiert Ruprecht Po­lenz (CDU), der so­zia­le Netz­wer­ke un­ter das Pres­se­recht stel­len möch­te [goo.gl/UpJdq8]. Da­mit be­kä­me man ei­ne recht­li­che

ge­gen Fal­sch­mel­dun­gen wie zum Bei­spiel bei Zei­tun­gen. Ste­phan May­er (CSU) for­dert so­gar ei­nen neu­en Straf­tat­be­stand, be­rich­tet Ta­ges­schau.de [goo. gl/SyFuFn], wäh­rend die SPD auf ei­ne Selbst­ver­pflich­tung der Par­tei­en setzt, nicht mit Fal­sch­mel­dun­gen zu ar­bei­ten.

FAKE-NEWS IM VORTEIL

Wo­her kommt die Auf­re­gung? Man muss sich die Diskussion in Ame­ri­ka an­se­hen, um die hef­ti­gen Re­ak­tio­nen auch bei eu­ro­päi­schen Po­li­ti­kern zu ver­ste­hen. Laut ei­ner Sta­tis­tik des Pew Re­se­arch Cen­ters von 2016 be­zie­hen 62 Pro­zent der Ame­ri­ka­ner ih­re Nach­rich­ten aus so­zia­len Netz­wer­ken, da­von 18 Pro­zent nach ei­ge­ner Aus­kunft „häu­fig” [goo.gl/ KM3YNV]. Die Zah­len un­ter­schei­den sich ein we­nig zwi­schen den Netz­wer­ken: Bei Face­book er­hal­ten rund zwei Drit­tel der Nut­zer (66 Pro­zent) News. Bei Red­dit sind es so­gar 70 und bei Twit­ter 59 Pro­zent. Gleich­zei­tig be­nut­zen 64 Pro­zent der Be­frag­ten nur ei­ne ein­zi­ge Si­te, um sich ak­tu­el­le In­for­ma­tio­nen zu be­sor­gen. Nur zehn Pro­zent der Be­frag­ten se­hen auf drei oder mehr Si­tes nach. Glaubt man der Sta­tis­tik, sind für vie­le Ame­ri­ka­ner Face­book, Youtube, Twit­ter, Ins­ta­gram oder Red­dit zu vie­len The­men die ein­zi­gen In­for­ma­ti­ons­quel­len. In die­sem Um­feld wir­ken Fake-News ver­hee­rend. Doch es kommt noch schlim­mer: Buz­zfeed ver­öf­fent­lich­te ei­ne Sta­tis­tik [goo.gl/qv6nQO], nach der rei­ße­ri­sche Fal­sch­mel­dun­gen sich viel wei­ter ver­brei­ten als se­riö­se Be­rich­te. Für die Sta­tis­tik un­ter­such­te Buz­zfeed ei­ne Rei­he von Si­tes, die Fake-News ver­brei­ten. Zwi­schen dem 1. Au­gust und dem 8. No­vem­ber 2016, dem Wahl­tag, wur­den Fal­sch­mel­dun­gen die­ser Si­tes über acht Mil­lio­nen Mal auf Face­book ge­teilt, kom­men­tiert oder mit Li­kes so­wie Dis­li­kes ver­se­hen. Im sel­ben Zei­t­raum hät­ten die Face­book-Nut­zer „nur” auf rund sie­ben Mil­lio­nen Mel­dun­gen von als se­ri­ös wahr­ge­nom­me­nen Me­di­en re­agiert. In­ter­es­sant ist da­bei, dass die se­riö­sen Me­di­en vor der Prä­si­den­ten­wahl bei den Re­ak­tio­nen weit vor­ne la­gen. Der Zu­wachs kam al­so al­ler Wahr­schein­lich­keit nach von den un­se­riö­sen Po­lit-News. Kann man die­se Er­geb­nis­se auf deut­sche Ver­hält­nis­se an­wen­den? Nicht oh­ne Wei­te­res: In Deutsch­land sieht die Si­tua­ti­on bei den so­zia­len Netz­wer­ken im Mo­ment noch an­ders aus. Laut der ARD/ZDFOn­li­ne­stu­die 2015 su­chen 18 Pro­zent al­ler In­ter­net-User ak­tu­el­le Nach­rich­ten über So­ci­al-Me­dia-Di­ens­te [goo. gl/HXet4]. Bei den 14- bis 29-Jäh­ri­gen ist der An­teil mit 32 Pro­zent aber fast dop­pelt so hoch. Bei den 30 bis 49-Jäh­ri­gen liegt er bei 20 Pro­zent, bei den 50-Jäh­ri­gen und äl­ter bei nur 6 Pro­zent. Laut ei­ner Stu­die von Bir­git Ei­me­ren und Wolf­gang Koch schwin­det die Nut­zung von News in so­zia­len Netz­wer­ken so­gar leicht [goo.gl/c0qaaW]. 2014 la­sen 15 Pro­zent der On­li­ner min­des­tens ein­mal wö­chent­lich ak­tu­el­le Nach­rich­ten in so­zia­len Netz­wer­ken. 2015 wa­ren es 13 Pro­zent. Häu­fi­ger ge­nutzt wer­den bei­spiels­wei­se Such­ma­schi­nen so­wie die In­ter­net-Auf­trit­te von Fern­seh­sen­dern und Zei­tun­gen. Nicht ganz so aus­ge­prägt sind die Er­geb­nis­se des Digital News Re­port 2016 des Reu­ters In­sti­tu­te; sie ge­hen aber in ei­ne ähn­li­che Rich­tung [goo.gl/eoGjD]. Da­nach su­chen deut­sche On­li­ne-Nut­zer haupt­säch­lich über Such­ma­schi­nen nach News (37 Pro­zent), ge­folgt von ge­zielt an­ge­steu­er­ten News-Si­tes (27 Pro­zent) und so­zia­len Netz­wer­ken (21 Pro­zent). Zum Ver­gleich: In Ame­ri­ka steu­ern 35 Pro­zent der User ge­zielt News-Web­sites an, ge­nau­so vie­le ge­hen auf so­zia­le Netz­wer­ke. Über Such­ma­schi­nen stei­gen 30 Pro­zent ein. Die Haupt­in­for­ma­ti­ons­quel­le bleibt in Deutsch­land das Fern­se­hen. 78 Pro­zent der Be­frag­ten nann­ten TV als NewsQu­el­le (On­li­ne: 59 Pro­zent, Print: 38 Pro­zent), wo­bei die Nut­zung von so­zia­len Netz­wer­ken zu­nimmt (31 Pro­zent), aber lang­sa­mer als in an­de­ren Län­dern. Die Reu­ters-For­scher wei­sen dar­auf hin, dass Rund­funk­sen­der und Ver­le­ger den Trend zu so­zia­len Netz­wer­ken vor al­lem bei jün­ge­ren Kun­den er­kannt ha­ben. Es ge­be zu­neh­mend An­ge­bo­te der eta­blier­ten News-Lie­fe­ran­ten auch für die­se Ka­nä­le. Die Stu­di­en sind sich weit­ge­hend ei­nig, dass so­zia­le Netz­wer­ke in Deutsch­land bis jetzt kei­ne so gro­ße Rol­le spie­len wie bei­spiels­wei­se in Ame­ri­ka. Da­her ist auch die po­li­ti­sche Wir­kung von News in die­sen Netz­wer­ken ver­mut­lich an­ders. Trotz­dem soll­ten Fal­sch­mel­dun­gen nicht die Ta­ges­de­bat­te be­stim­men. Wie kann man al­so ge­gen Fake-News vor­ge­hen?

WAS SIND FAKE-NEWS?

Be­vor man dar­über spricht, wie man Fake-News be­kämp­fen kann, soll­te man das Schlag­wort et­was ge­nau­er de­fi­nie­ren. Spricht man über Hass­bot­schaf­ten, al­so dif­fa­mie­ren­de Äu­ße­run­gen über po­li­ti­sche Geg­ner? Spricht man über On­li­ne-Mel­dun­gen, bei de­nen sich un­be­ab­sich­tigt Re­cher­che­feh­ler ein­ge­schli­chen ha­ben? Oder geht es doch eher um be­wuss­te Fal­sch­mel­dun­gen und Ver­dre­hun­gen, in der Ab­sicht, Mei­nun­gen zu ma­ni­pu­lie­ren? Wel­che Rol­le spie­len So­ci­al Bots, al­so Com­pu­ter­pro­gram­me, die au­to­ma­ti­siert Bei­trä­ge in Fo­ren oder in so­zia­len Me­di­en wie Twit­ter oder Face­book ab­set­zen? Die Un­ter­schei­dung ist wich­tig. Denn je nach­dem, wo­her die fal­schen Neu­ig­kei­ten kom­men, gibt es ver­schie­de­ne Mög­lich­kei­ten, sich da­ge­gen zu weh­ren. Ge­gen Ver­leum­dun­gen und Be­lei­di­gun­gen in je­der Form gibt es ei­ne recht­li­che Hand­ha­be nach dem deu­tHand­ha­be

schen Straf­recht. Ein Bei­spiel ist die Grü­nen-Po­li­ti­ke­rin Re­na­te Kü­n­ast. Sie wur­de nach dem Mord an ei­ner Stu­den­tin in Frei­burg da­mit zi­tiert, dass man dem mord­ver­däch­ti­gen Flücht­ling „hel­fen müs­se”. Die­ses Zi­tat sei frei er­fun­den, er­klär­te Kü­n­ast und stell­te Straf­an­zei­ge we­gen üb­ler Nach­re­de und an­de­ren De­lik­ten. Der Spie­gel be­rich­tet von ei­nem wei­te­ren Fall, in dem ein sy­ri­scher Flücht­ling ein Sel­fie mit Bun­des­kanz­le­rin An­ge­la Mer­kel mach­te [goo.gl/ KDb­z6p]. Die­ses Fo­to lan­de­te auf Face­book mit der An­mer­kung, dass sich die Kanz­le­rin mit ei­nem der Ver­däch­ti­gen ab­lich­ten las­se, die in Ber­lin ei­nen Ob­dach­lo­sen an­ge­zün­det ha­ben sol­len. Der An­walt des Flücht­lings reich­te ei­nen An­trag auf einst­wei­li­ge Ver­fü­gung ein. Ge­gen sach­lich fal­sche Darstel­lun­gen in „Tele­me­di­en” mit jour­na­lis­tisch-re­dak­tio­nel­ler Be­richt­er­stat­tung, egal ob mit bö­ser Ab­sicht oder nicht, hat je­der Bür­ger zu­sätz­lich das Recht zur Ge­gen­dar­stel­lung. Ein schar­fes Schwert – denn ei­ne ju­ris­tisch kor­rekt for­mu­lier­te Ge­gen­dar­stel­lung muss kos­ten­los ver­öf­fent­licht wer­den: ge­nau­so groß und pro­mi­nent wie die be­an­stan­de­te Mel­dung. Da­bei spielt es kei­ne Rol­le, ob de­ren In­halt frag­lich ist, nur straf­ba­re Be­haup­tun­gen sind in ei­ner Ge­gen­dar­stel­lung aus­ge­schlos­sen. Ent­schei­dend ist bei der Ge­gen­dar­stel­lung die Fra­ge, ob ein On­li­ne-An­ge­bot ju­ris­tisch ein „Tele­me­di­um” ist. Ganz si­cher ge­hö­ren da­zu die On­li­neAuf­trit­te von Fern­seh­sen­dern, Print-Ma­ga­zi­nen und Zei­tun­gen. Doch die Gren­zen sind ver­schwom­men. Im No­vem­ber 2016 wur­de so­gar ein Blog vom Ber­li­ner Kam­mer­ge­richt zu ei­ner Ge­gen­dar­stel­lung ver­ur­teilt [goo.gl/2ohL7K]. In die­sem Ar­ti­kel soll es um ab­sicht­lich von Men­schen ver­brei­te­te Fal­sch­mel­dun­gen ge­hen. Da­bei wer­den wir uns auf so­zia­le Netz­wer­ke kon­zen­trie­ren. Hier hat der Be­trei­ber, al­so zum Bei­spiel Face­book, Ein­fluss auf die ge­pos­te­ten In­hal­te. Er kann sie lö­schen, wenn sie nicht den Richt­li­ni­en ent­spre­chen, er kann ih­nen ein Ra­ting ver­lei­hen oder sie mit Mar­kie­run­gen ver­se­hen. Wenn News-Sei­ten hin­ge­gen Fa­keNews ver­brei­ten, bleibt nur das Mit­tel der Ge­gen­dar­stel­lung oder ei­ne Ab­mah­nung. Ver­sto­ßen die In­hal­te gar ge­gen das Straf­recht, gibt es schon jetzt staat­li­che Be­hör­den, die Nach­rich­ten aus dem Netz neh­men. Bei ter­ro­ris­ti­scher Pro­pa­gan­da und Hass­re­den wird zum Bei­spiel die Eu­ro­pol-Ein­heit EU In­ter­net Re­fer­ral Unit (EU IRU) tä­tig [goo.gl/QXFHg4]. Eu­ro­pol spürt die­se In­hal­te auf und for­dert dann die Pro­vi­der auf, die­se frei­wil­lig zu lö­schen. Au­ßer­dem will die EU mit dem 10 Mil­lio­nen Eu­ro schwe­ren Ci­vil So­cie­ty Em­power­ment Pro­gram­me Or­ga­ni­sa­tio­nen un­ter­stüt­zen, die on­li­ne ge­gen Ter­ro­ris­ten­pro­pa­gan­da vor­ge­hen [goo.gl/IydjRF].

ALGORITHMEN GE­GEN FAKE-NEWS

In Face­book gab es be­reits vor der jüngs­ten Fake-NewsDe­bat­te ei­ni­ge An­sät­ze, un­er­wünsch­te Tex­te mit Com­pu­teral­go­rith­men zu er­fas­sen. Ei­ner der Algorithmen dient et­wa dem Kampf ge­gen Scherz­mel­dun­gen (Ho­a­xes). An­wen­der kön­nen Ge­schich­ten als Spam oder als „Falsch” mar­kie­ren. Ha­ben ge­nü­gend Be­nut­zer auf die Mar­kie­rung ge­klickt, fügt der Al­go­rith­mus ei­ne An­mer­kung zur je­wei­li­gen News hin­zu, dass sie von vie­len Be­nut­zern als „Falsch” mar­kiert wur­de. Mit in die Be­rech­nung fließt au­ßer­dem ein, wie oft die Nach­richt von an­de­ren An­wen­dern ge­löscht wur­de. Wäh­rend sich der Ho­ax-Mecha­nis­mus auf An­wen­der­be­rich­te ver­lässt, gibt es ei­nen zwei­ten Al­go­rith­mus, der „Click­bait­ing” ver­hin­dern soll. Mit Click­bait­ing sind nichts­sa­gen­de, aber rei­ße­ri­sche Ti­tel ge­meint, die Neu­gie­ri­ge an­lo­cken sol­len. Um de­ren Ver­brei­tung zu ver­hin­dern, wur­de ein ler­nen­des Pro­gramm mit von Men­schen aus­ge­wähl­ten ty­pi­schen Lock­vo­gel-Ti­teln trai­niert, so­dass es vie­le Click­bait-News an der Schlag­zei­le er­ken­nen kann. Face­book stuft Si­tes, die häu­fig Lock­vo­gelGe­schich­ten ver­öf­fent­li­chen, im News-Ran­king zu­rück. Nach Mei­nung der Kri­ti­ker reich­ten die­se Maß­nah­men je­doch nicht aus, um Fake-News im ame­ri­ka­ni­schen Wahl­kampf zu un­ter­bin­den. Des­halb kün­dig­te Face­book En­de Ja­nu­ar 2017 wei­te­re Maß­nah­men an, auch für Deutsch­land. Deut­sche An­wen­der kön­nen in Zu­kunft Nach­rich­ten als falsch mar­kie­ren. Die­se wer­den dann vom Re­cher­che­zen­trum Cor­rec­tiv im Auf­trag von Face­book auf Wahr­heit ge­prüft [goo.gl/sQuHCx]. Soll­te die Prü­fung ne­ga­tiv aus­fal­len, wird die Nach­richt aber nicht ge­löscht. Face­book-Nut­zer sol­len die Mel­dung wei­ter­hin le­sen und wei­ter­ge­ben kön­nen. Der News soll je­doch ein Warn­hin­weis an­ge­hef­tet wer­den, in dem dar­auf hin­ge­wie­sen wird, dass der je­wei­li­ge

In­halt um­strit­ten ist. Even­tu­ell wird es auch ei­nen Link auf Nach­rich­ten­quel­len ge­ben, wel­che die Fak­ten rich­tig­stel­len. Doch es gibt auch här­te­re Maß­nah­men: Bei un­sin­ni­gen Mel­dun­gen kön­ne auch „de­ren Sicht­bar­keit ver­rin­gert wer­den”, wird Face­book-Ma­na­ger Gui­do Bü­low zi­tiert. Ein ähn­li­ches Mo­dell kam schon zu­vor in den Ver­ei­nig­ten Staa­ten zum Ein­satz. Hier will Face­book mit Fak­ten­prü­fern zu­sam­men­ar­bei­ten, die sich an die Prin­zi­pi­en des In­ter­na­tio­na­len Fact Che­cker Net­works (IFCN) hal­ten [goo.gl/AXzyMJ].

STUDENTEN GE­GEN FAKE-NEWS

Nicht nur IT-Pro­fis be­fas­sen sich mit der Fake-News-Pro­ble­ma­tik. Studenten der Uni­ver­si­ty of Mas­sa­chu­setts ent­wi­ckel­ten in ei­nem 36-St­un­den Hacka­thon ei­ne Brow­ser-Er­wei­te­rung für Chro­me na­mens „FiB”, die ver­sucht, Face­boo­kMel­dun­gen über Qu­el­len im Web zu ve­ri­fi­zie­ren. Das Er­geb­nis wird dann über ei­ne ent­spre­chen­de Mel­dung im Brow­ser an­ge­zeigt („ve­ri­fied oder „not ve­ri­fied”, goo.gl/ H0fGsh). Wie funk­tio­niert das? Nach An­ga­ben der Ent­wick­ler liest das Plu­gin die Face­boo­kNews und gibt sie dann an ei­nen Ser­ver im Web wei­ter. Die­ser ver­sucht über We­bDi­ens­te wie zum Bei­spiel Mi­cro­soft Co­gni­ti­ve Ser­vices den In­halt der News zu er­mit­teln. Da­nach über­prüft ein Al­go­rith­mus im Web Links, Bil­der und Twit­ter-Feeds auf Ih­re Echt­heit. Fin­det er die an­ge­ge­be­nen Qu­el­len nicht, be­kommt die News das Prä­di­kat „nicht ve­ri­fi­ziert”; als War­nung, dass es sich hier mög­li­cher­wei­se um ei­ne Fake-News han­delt. Das Pro­jekt exis­tiert zur­zeit noch in sei­ner ur­sprüng­li­chen Hacka­thon-Ver­si­on und harrt auf wei­te­re Ent­wick­lung. Ein wei­te­rer au­to­ma­ti­sier­ter Fak­ten­che­cker im Pro­jekt­sta­di­um ist Fact­ma­ta [fact­ma­ta. com]. Wei­te­re Tools könn­ten aus Wett­be­wer­ben wie He­roX [he­rox.com/fact­check], der Fake News Chal­len­ge [fake­newschal­len­ge.org] oder dem Fac­tHack-Hacka­thon [goo.gl/ EzPkCj] her­vor­ge­hen.

COM­PU­TER BES­SER ALS MEN­SCHEN

Com­pu­ter ha­ben es schwer, wenn es um das Ver­ste­hen mensch­li­cher Spra­che und be­son­ders wenn es um Wahr­heit geht. Algorithmen ha­ben aber ei­nen Vorteil ge­gen­über mensch­li­chen Mo­de­ra­to­ren oder, wenn man so will, „Zen­so­ren”: Sie sind in der Re­gel zu­nächst ein­mal un­par­tei­isch. Es sei denn, der Al­go­rith­mus wur­de ab­sicht­lich „par­tei­isch” pro­gram­miert, zum Bei­spiel wenn Sie ein Com­pu­ter­pro­gramm dar­auf trai­nie­ren wür­den, News aus dem rechts­kon­ser­va­ti­ven Spek­trum zu er­ken­nen. Da­bei muss nicht ein­mal bö­se Ab­sicht vor­lie­gen. Wird ein ler­nen­der Al­go­rith­mus mit aus­ge­wähl­ten Fal­sch­mel­dungs-Bei­spie­len ge­füt­tert, kann es im­mer sein, dass die An­sich­ten des Teams, das die Mel­dun­gen aus­ge­wählt hat, vom Al­go­rith­mus „über­nom­men” wer­den. Die­sen Vor­wurf kann man den er­wähn­ten Face­book-Algorithmen aber bis­her nicht ma­chen. Zu­min­dest wur­de er noch von kei­ner Sei­te er­ho­ben. Schwie­rig­kei­ten gab es hin­ge­gen mit ei­nem mensch­li­chen Mo­de­ra­to­ren-Team. Giz­mo­do be­rich­te­te im Mai 2016 über Ma­ni­pu­la­tio­nen des mensch­li­chen Ku­ra­to­ren-Teams, das die „Tren­ding To­pics” in der ame­ri­ka­ni­schen Face­book-Ver­si­on be­treut [goo.gl/bDEI2w]. Da­nach sei­en ge­zielt News aus kon­ser­va­ti­ven Qu­el­len ge­löscht wor­den. Zu­sätz­lich ha­be man ei­ge­ne News „in­ji­ziert”, die in die­ser Form in der Face­book-Ge­mein­de nicht auf­ge­taucht wa­ren. Nach­rich­ten über Face­book selbst sei­en ge­zielt un­ter­drückt wor­den. Face­book hat die­se Vor­wür­fe zu­rück­ge­wie­sen. Man sei in Tren­ding To­pics im­mer neu­tral ge­we­sen, kon­ser­va­ti­ve und li­be­ra­le Mel­dun­gen hät­ten sich die Waage ge­hal­ten. Doch im Au­gust 2016 gab es ei­ne Än­de­rung bei „Tren­ding”. Der Di­enst wur­de da­nach „al­go­rith­mi­scher”. Es sei­en im­mer noch Men­schen be­tei­ligt, die für Qua­li­täts­stan­dards sor­gen soll­ten. Sie müss­ten aber we­ni­ger „in­di­vi­du­el­le Ent­schei­dun­gen” tref­fen.

FAK­TEN UN­TER DER LUPE

Fake-News zu er­ken­nen ist gar nicht so schwer. Der Le­ser muss sich nur ein paar ein­fa­che Fra­gen stel­len: Wel­che Qu­el­len sind in der Nach­richt an­ge­ge­ben? Gibt es die­se Qu­el­len über­haupt (Link ver­fol­gen)? Sind sie glaub­wür­dig? Gibt es noch wei­te­re se­riö­se Qu­el­len, wel­che die auf­ge­stell­ten Be­haup­tun­gen be­le­gen? Aber Ach­tung: Nur weil ei­ne Mel­dung auf meh­re­ren Ka­nä­len auf­taucht, muss sie nicht rich­tig sein. Si­tes schrei­ben von­ein­an­der ab, was Sie dar­an er­ken­nen, dass sie sich auf die­sel­ben ex­ter­nen Qu­el­len oder auf­ein­an­der be­ru­fen. Fra­gen Sie sich auch, wie na­he ei­ne Qu­el­le am tat­säch­li­chen Ge­sche­hen war. Hat die Qu­el­le ein Ei­gen­in­ter­es­se, oder ist sie (ver­mut­lich) un­be­tei­ligt? Hilf­reich kann auch ei­ne Rück­wärts­su­che von Bil­dern oder Vi­deo­vor­schau­bil­dern mit Goog­le sein [images.goog­le. com]. So kön­nen Sie manch­mal er­ken­nen, ob ein an­geb­lich ak­tu­el­les Bild schon sehr alt oder ei­ne Fo­to­mon­ta­ge aus ähn­li­chen Bil­dern ist. Die Nach­re­cher­che müs­sen Sie im güns­tigs­ten Fall gar nicht selbst er­le­di­gen. Es gibt mitt­ler­wei­le welt­weit ei­ne wach­sen­de Zahl von Di­ens­ten, die sich der Über­prü­fung von Fak­ten wid­men. Das Ame­ri­can Press In­sti­tu­te stellt ge­ra­de auch in Ame­ri­ka ein star­kes Wachs­tum von Fact-Che­cking-Pro­jek­ten fest. Ei­ne Lis­te aus­ge­wähl­ter „Fak­ten­prü­fer” fin­den Sie zum Bei­spiel bei Poyn­ter [goo. gl/AXzyMJ]. In Deutsch­land exis­tiert ne­ben Cor­rec­tiv zum Bei­spiel bild­blog.de. Auch Pres­se­agen­tu­ren, Ver­la­ge und Fern­seh­sen­der wol­len fal­sche Nach­rich­ten kri­tisch be­leuch­ten. Da­für hat sich im Sep-

tem­ber 2016 das „First Draft Part­ner Net­work” ge­bil­det, ein Zu­sam­men­schluss von Me­di­en, so­zia­len Netz­wer­ken, Fact­Check-Pro­jek­ten und Bür­ger­recht­lern [first­draft­news.com]. Das Netz­werk soll Richt­li­ni­en her­aus­ge­ben und Hil­fe bei der Be­kämp­fung von Fal­sch­nach­rich­ten leis­ten. So­gar die Po­li­zei be­tä­tigt sich ge­le­gent­lich als Fak­ten-Che­cker und macht sich auf Jagd nach Fal­sch­nach­rich­ten im Web. Ein Bei­spiel ist die Po­li­zei­in­spek­ti­on Ro­sen­heim, die ei­ne Face­book-Fal­sch­mel­dung über ein an­geb­li­ches Ver­bre­chen in Mühl­dorf mit ei­nem ro­ten „Fal­sch­mel­dung”-Bal­ken ver­zier­te und auf ih­re Web­site stell­te [goo.gl/L2tt­tx]. Doch kön­nen die­se Tat­sa­chen­prü­fer über­haupt et­was aus­rich­ten? Schließ­lich be­haup­ten ei­ni­ge, dass wir in ei­nem „post­fak­ti­schen” Zeit­al­ter le­ben. Die­ser um­strit­te­ne Be­griff – und Wort des Jah­res 2016 – soll be­deu­ten, dass sich vie­le Men­schen bei der Beur­tei­lung von Nach­rich­ten eher von ih­ren Ge­füh­len und nicht von nach­voll­zieh­ba­ren Fak­ten lei­ten las­sen. Ist das wirk­lich so? Sind vie­le Men­schen durch ra­tio­na­le Ar­gu­men­te und prä­sen­tier­te Fak­ten nicht mehr zu er­rei­chen? Das Ame­ri­can Press In­sti­tu­te lie­fert hier ein dif­fe­ren­zier­te­res Bild der Si­tua­ti­on in den USA [goo.gl/UQz­kqP]. Zu­nächst gibt es bei den Fak­ten-Che­ckern ein Ver­mitt­lungs­pro­blem: Nur we­ni­gen Ame­ri­ka­nern (et­wa 50 Pro­zent) sind laut ei­ner Stu­die von Bren­dan Ny­han und Ja­son Reif­ler vom Au­gust 2016 Fak­ten­prü­fungs-Pro­jek­te be­kannt [goo.gl/69l1MJ]. Mehr als 80 Pro­zent der Be­frag­ten fin­den die Idee aber gut. Über 90 Pro­zent der Teil­neh­mer, die sol­che Pro­jek­te tat­säch­lich ken­nen, schät­zen die­se po­si­tiv ein. Die For­scher führ­ten auch ei­ne Be­fra­gung durch, um den Wis­sens­ge­winn durch die Re­cher­che zu tes­ten. Tat­säch­lich er­ziel­ten die Pro­ban­den nach dem Stu­di­um von Fact-CheckSi­tes bes­se­re Test­wer­te im Be­reich von 11 bis 28 Pro­zent. Doch es gibt auch Schat­ten­sei­ten: Re­pu­bli­ka­ner be­ur­teil­ten die Fak­ten­prü­fer ten­den­zi­ell schlech­ter als De­mo­kra­ten. Die po­li­ti­sche Aus­rich­tung hat al­so ei­nen star­ken Ef­fekt auf die Wir­kung der Fak­ten­prü­fer. Ein wei­te­res Pro­blem: Teil­neh­mer der Stu­die, die nach ei­nem Test als po­li­tisch we­ni­ger ge­bil­det ein­ge­stuft wur­den, kön­nen al­ter­na­ti­ven In­for­ma­ti­ons­an­ge­bo­ten meist we­nig ab­ge­win­nen. Auch der Lern­ef­fekt durch die We­bRe­cher­che war ten­den­zi­ell schlech­ter. Glaubt man die­ser Stu­die, wä­re die­se Be­völ­ke­rungs­grup­pe durch po­li­ti­sche Auf­klä­rung und In­for­ma­ti­ons­kam­pa­gnen zu­min­dest schlecht er­reich­bar. Ein Rand­phä­no­men: Laut ei­ner Stu­die der Ri­der Uni­ver­si­ty vom Fe­bru­ar 2015 („The Ef­fec­tiven­ess and Ef­fects of Ra­ting Sca­le”) sind Be­rich­te, die Fak­ten rich­tig­stel­len, be­son­ders ef­fek­tiv, wenn sie ei­ne Lü­gen­ska­la be­nut­zen. Ein Bei­spiel ist das Pi­noc­chio-Ra­ting der Washington Post. Je „grö­ßer” die Un­wahr­heit, des­to mehr Pi­noc­chi­os er­hält ein Be­richt [goo.gl/QX­by­ni]. Die­se Er­geb­nis­se be­zie­hen sich na­tür­lich auf ame­ri­ka­ni­sche Ver­hält­nis­se. Man kann sie si­cher nicht eins zu eins auf Deutsch­land über­tra­gen. Sie sol­len nur ei­nen Ein­blick ge­ben, wel­che Wir­kun­gen Fak­ten­prü­fun­gen im Web ha­ben kön­nen.

UN­TER­NEH­MEN GE­GEN FAKE-NEWS

Fal­sch­nach­rich­ten als sol­che zu ent­lar­ven, ist ei­ne gu­te Sa­che. Bes­ser wä­re es, wenn sie gar nicht erst er­schie­nen. Face­book und Goog­le ha­ben sich des­halb laut ei­nem Be­richt der New York Ti­mes im No­vem­ber 2016 ver­bün­det, um Fa­keNews-Pro­du­zen­ten fi­nan­zi­ell aus­zu­blu­ten: durch den Ent­zug von Wer­be­ein­nah­men [goo.gl/ R8IEwZ]. Face­book will kei­ne

An­zei­gen des haus­ei­ge­nen Au­di­ence Net­works auf Si­tes mit Fake-News zu­las­sen [goo. gl/csJRkz]. Face­book wird al­so kei­ne Wer­bung an die­se Si­tes wei­ter­ver­mit­teln. Da­für wur­den ei­gens die Richt­li­ni­en des Wer­be­net­zes an­ge­passt, die jetzt ex­pli­zit „Fake-News” aus­schlie­ßen. Das­sel­be gilt auch für Googles Wer­be­netz AdSen­se. Das Un­ter­neh­men will kei­ne Wer­bung(en) auf Si­tes brin­gen, „wel­che ih­re Ur­he­ber und Qu­el­len ver­schwei­gen so­wie ir­re­füh­rend oder falsch dar­stelIen”. Ob die Maß­nah­men er­folg­reich sind, wird sich zei­gen. Fal­sch­nach­rich­ten im Web las­sen sich leicht iden­ti­fi­zie­ren. Es gibt vie­le In­for­ma­ti­ons­quel­len, von den tra­di­tio­nel­len News-Por­ta­len der Ver­la­ge und Fern­seh­sen­der bis hin zu Fact-Che­cking-Pro­jek­ten, mit de­nen An­wen­der ge­le­se­ne Nach­rich­ten über­prü­fen kön­nen. Ku­ra­to­ren sind in der La­ge, mit der Un­ter­stüt­zung von Algorithmen Fake-News auf­zu­spü­ren und als falsch oder zu­min­dest kon­tro­vers zu mar­kie­ren. Zum Schluss blei­ben auch noch recht­li­che Schrit­te wie Ab­mah­nun­gen, Ver­leum­dungs­kla­gen oder Ge­gen­dar­stel­lun­gen. Was nützt das, wenn die An­wen­der die­se In­for­ma­tio­nen nicht zur Kennt­nis neh­men? Das Stich- oder Schlag­wort heißt hier „post­fak­ti­sche Welt”. Dem muss man Sta­tis­ti­ken ent­ge­gen­hal­ten, die na­he­le­gen, dass vie­le Men­schen be­reit sind, die In­for­ma­ti­ons­an­ge­bo­te zu nut­zen: Sie in­for­mie­ren sich – zu­min­dest in Deutsch­land – auch nicht vor­wie­gend über so­zia­le Netz­wer­ke, son­dern über Such­ma­schi­nen, News-Por­ta­le oder an­de­re Me­di­en wie Fern- se­hen, Ra­dio und Zei­tun­gen. Die­se Ge­sichts­punk­te soll­te man be­rück­sich­ti­gen, wenn man här­te­re Maß­nah­men ge­gen Fake-News for­dert, wie zum Bei­spiel Straf­rechts­ver­schär­fun­gen oder so­gar ein staat­li­ches Ab­wehr­zen­trum.

Abb. 1: Po­li­ti­fact ist ei­ne ame­ri­ka­ni­sche Fact-Check-Si­te, die sich aus­schließ­lich mit der Über­prü­fung von Nach­rich­ten und Po­li­ti­kerzi­ta­ten be­schäf­tigt.

Abb. 2: Die EU East Stra­tCom Task Force der Eu­ro­päi­schen Uni­on be­treibt ei­ne ei­ge­ne Web­site, um ge­gen rus­si­sche Web-Pro­pa­gan­da vor­zu­ge­hen [euvs­dis­in­fo.eu].

Abb. 3: Das deut­sche Cor­rec­tiv-Pro­jekt [cor­rec­tiv.org] soll Fake-News über­prü­fen, die auf Face­book er­schei­nen. Fin­den die Cor­rec­tiv-Jour­na­lis­ten fal­sche In­for­ma­tio­nen, wer­den Mel­dun­gen ge­kenn­zeich­net.

Abb. 4: FiB ist ein Plu­gin für den Chro­me-Brow­ser. Es wur­de von Studenten bei ei­nem Hacka­thon 2016 ent­wi­ckelt und kann au­to­ma­tisch Nach­rich­ten­quel­len im Web über­prü­fen.

Abb. 6: Ale­xi­os Mant­zar­lis, hier sei­ne Twit­ter-Sei­te, ist der Chef des International Fact-Che­cking Net­work (IFCN), ei­nes in­ter­na­tio­na­len Zu­sam­men­schlus­ses von Fak­ten­prü­fungs­pro­jek­ten.

Abb. 5: Bei der Fake News Chal­len­ge ar­bei­ten 100 Frei­wil­li­ge und 71 Teams aus Wis­sen­schaft und In­dus­trie dar­an, Fake News und Ho­a­xes schnel­ler iden­ti­fi­zie­ren zu kön­nen [fake­newschal­len­ge.org].

Abb. 7: Das First-Draft-Part­ner­netz­werk soll Jour­na­lis­ten da­bei un­ter­stüt­zen, Fake-News zu er­ken­nen und ef­fek­tiv zu be­kämp­fen.

Abb. 8: Die Washington Post be­wer­tet den Wahr­heits- oder Falsch­heits­ge­halt von Mel­dun­gen mit ei­nem Pi­noc­chio-Me­ter. Vier Pi­noc­chi­os be­deu­ten gro­be Fehl­in­for­ma­tio­nen.

Newspapers in German

Newspapers from Germany

© PressReader. All rights reserved.