Hoe de EU nepnieuws wil indammen
Niet alleen rond de verkiezingen voor het EU-parlement waren er zorgen over manipulatie van burgers met fake news. De Europese Commissie houdt sociale media tegen het licht en onderneemt zelf stappen tegen valse voorlichtingscampagnes.
Hé dat is verdacht … zouden het soms moslims zijn geweest die een symbool van het Christendom hebben aangevallen? Kijk daar, die schaduw en die sluipbeweging en iets wat er uitziet als een moslimgewaad. Ze hebben de Notre-Dame aangevallen, het waren terroristen!
Het is te vrezen dat een aantal mensen die conclusie trokken toen er in hun Facebook-feed een video voorbijkwam waarop vaag iemand te zien was bij de Notre-Dame toen die in brand stond. Het sug
gestieve bijschrift bij de video luidde “No workers present at the time that the Notre Dame Cathedral fire started……So who is this guy dressed in garb??”. In werkelijkheid was op de 18 seconden durende video een brandweerman te zien die aan het werk was. Iemand had een kort fragment uit een drie uur durende livestream van CNBC geknipt, ingezoomd en onscherp gemaakt. Op de oorspronkelijke video voegt de duidelijk herkenbare brandweerman zich kort daarna weer bij zijn collega's.
Zo gaat het steeds weer als er een grote, tragische gebeurtenis in het nieuws komt. Degenen die de waarheid willen verdraaien slaan toe met botte verkrachtingen van de werkelijkheid. Ze reageren bliksemsnel, profiteren van de golf van aandacht en zaaien wantrouwen – dat in vruchtbare aarde valt bij een toch al geschokt publiek. Een heel leger factcheckers komt eveneens in actie en probeert alle desinformatie en het nepnieuws op te sporen en zo mogelijk via dezelfde kanalen te weerspreken. De vakterm daarvoor is ‘debunking’. Politifact en Checknews.fr, de
factchecking-afdeling van de Franse krant Liberation, ontmaskerden de fabels rondom de genoemde video.
ONEERLIJKE STRIJD
Maar dat is geen eerlijke strijd: als een factchecker het nepnieuws ontmaskert (wat tot nu toe veel werk kost en tijdrovend onderzoek vergt) is de aandacht al lang weggeëbd. Leugens zijn snel verzonnen, de achterliggende waarheid interesseert mensen minder – zeker als die niet in hun wereldbeeld past. Veel mensen zien ook een steeds minder duidelijk onderscheid tussen echte en valse feiten (47 procent in een studie door Capgemini, zie de link op de laatste pagina van dit artikel).
Vandaar dat de Europese Commissie zich ermee bemoeit. Dat is mede ingegeven door de recente verkiezingen voor het Europees parlement. Meer dan 400 miljoen EU-burgers mochten stemmen op kandidaten voor een nieuw Europees parlement. Dat parlement heeft ook rechtstreeks invloed op de samenstelling van de Europese Commissie, op de Europese regering. De invloed van valse informatiecampagnes via sociale media kan kiezers beïnvloeden en ervan weerhouden om te stemmen. Het relatief hoge opkomstpercentage kan door nepnieuws beïnvloed zijn. Fake news kan er ook toe leiden dat uitslagen anders worden geïnterpreteerd en dat politieke extremen versterkt worden. Het uiteindelijke gevolg is dat de democratie gevaar loopt.
Een goed voorbeeld zijn de Amerikaanse presidentsverkiezingen van 2016. Zoals ondertussen vaststaat, maakte het Trump-team op sociale media slim gebruik van halve waarheden, uit hun context gehaalde feiten en ook regelrechte leugens. Welke invloed dat op de verkiezingsuitslag heeft gehad, is nog steeds onduidelijk. Het is ook omstreden welke rol print- en tv-media daarbij gespeeld hebben.
Een team van een non-profit Berlijnse denktank (Stiftung Neue Verantwortnung) analyseerde de oorsprong, verspreiding en effecten van nepnieuws bij de Duitse Bondsdagverkiezingen in 2017 (zie de link aan het eind van dit artikel). Ze bekeken als voorbeeld tien gebeurtenissen in de maanden voorafgaand aan de verkiezingen en onderzochten daarbij alle data die ze van Facebook en Twitter konden krijgen. Daarnaast keken ze naar blogberichten en websites van grote uitgevers.
Het resultaat: “Enkele zorgen die vooraf in de media werden geuit, konden we niet bevestigen. Bij ons empirische onderzoek vonden we geen grote hoeveelheid fake news uit Rusland, die onder een breed publiek verspreid werd, noch waren er aanzienlijke invloeden vanuit links populistische hoek”. Nepnieuws werd vooral “door rechts, rechts populistische en extreem rechtse groepen verspreid. Daarbij vormt AfD (Alternative für Deutschland) het speerpunt bij de verspreiding, in zeven van de tien door ons gedocumenteerde gevallen bevindt die partij zich in de top 10 van verspreiders met de grootste reikwijdte”.
Die waarneming komt in elk geval kwantitatief overeen met de onderzoeksresultaten van de George-Washington-universiteit. Onlangs gaf professor Trevor Davis inzicht in het betreffende onderzoek naar duizenden Facebook-accounts van Duitse partijen vanaf oktober 2018. Een fenomeen zoals de AfD had hij nog niet eerder gezien.
Volgens de onderzoeksgegevens was 85 procent van alle Facebook-berichten door Duitse politieke partijen afkomstig van AfD. Het ging daarbij vaak om nepnieuwsberichten als “Syriërs mogen hun tweede vrouw laten overkomen!”. De resterende 15 procent van de berichten was afkomstig van andere partijen, van de regeringspartijen CDU/CSU en SPD samen slechts twee tot drie procent.
In de aanloop naar de Europese verkiezingen uitten journalisten en wetenschappers hun zorgen steeds meer. Zo werd de desinformatiecampagne rond de al lang afgeronde, wettelijk vastgelegde migratieafspraken geanalyseerd. Dat gebeurde door het internationale onderzoeksteam Investigate Europe, dat bestaat uit journalisten van onder andere Le Monde, de Berliner Tagesspiegel en de BBC.
Hun onderzoek laat zien hoe in het voorjaar van 2018 op het kantoor van de AfD de opruiing begint en verder verloopt, hoe een video van de Oostenrijkse rechtsextremist Martin Sellner in enkele weken tijd meer dan 100.000 mensen bereikt op YouTube, hoe Sellner de berichtendiensten Discord en Telegram gebruikt om de video via zijn contacten viraal te laten gaan en hoe als gevolg daarvan het aantal tweets over het migratieakkoord met circa 700 procent toenam. Volgens de Tagesspiegel “begonnen pas vanaf dat moment dagbladen en andere grote media over het akkoord te berichtten”.
Volgens de onderzoekers moet de EU dat soort doelgerichte acties zoals van Sellner en zijn gelijkgestemde beweging zien als een (laatste) waarschuwing. Na het Brexit-referendum en de Trump-verkiezing in 2016 heeft voor het eerst een desinformatiecampagne ook op het platteland van Europa politieke consequenties gehad.
IN ACTIE!
Al in 2016 nam de Europese Commissie maatregelen tegen desinformatiecampagnes. Maar zoals de onderzoeksresultaten laten zien, richtte men de blik de verkeerde kant op, namelijk naar de Oostgrens van Europa. Met een klein budget en aanvankelijk een eenpersoons bezetting startte men bij de Europese dienst voor extern optreden een werkgroep tegen desinformatie, de ‘East StratCom Task Force’, kortweg ‘East StratCom’.
Die eenheid werd in het leven geroepen na de Oekraïense Maidan-revolutie en de waargenomen Russische socialemediacampagne. De eenheid moet greep krijgen op anti-Europese desinformatiecampagnes en ze analyseren. Op de website ‘EU vs Disinfo’ publiceerde de eenheid al meer dan 5000 bijdragen, waaronder veel factchecks, zonder dat daar veel mediabekendheid aan werd gegeven.
Door onderling wantrouwen binnen de EU moet StratCom zich echter beperken tot het debunken van door Russische alternatieve media verspreidde desinformatie. Fake news van Europese oorsprong is taboe. De EU heeft ondertussen twee andere StratComs opgericht, namelijk de Task Force Westbalkan en de Task Force South, voor de landen in het MiddenOosten en in Noord-Afrika en de Golf-regio. Eventuele misleidende informatie uit de eigen regio onder de loep nemen is momenteel geen optie.
In plaats daarvan kondigde de Europese Commissie in december 2018 met veel tamtam een ‘actieplan tegen desinformatie’ aan. De geplande Europese verkiezingen gaven een belangrijke impuls voor Brussel.
Onderdeel van het plan waren meer financiële middelen voor StratCom en het vergroten van het personeelsbestand met 50 werknemers. Ook nu nog lokaliseert de EU de socialemedia-tegenstanders vooral in Rusland, met zijn leger regeringsgezinde internettrollen. Veel aandacht gaat uit naar het monitoren van alternatieve mediakanalen zoals het populaire Russia Today (RT). Het effect van StratCom zal echter beperkt zijn en niet opvallen omdat het zijn factchecking-resultaten publiceert op een nauwelijks bekende website.
Een ander onderdeel van het Europese actieplan is een ‘ snellewaarschuwingssysteem’. Elke EU-lidstaat heeft contactpersonen benoemd die via de ‘EU-Fusiecel voor analyse van hybride bedreigingen’ worden gecoördineerd in de Europese Dienst voor extern optreden. De EU-lidstaten zullen gegevens en evaluaties van desinformatiecampagnes intensiever uitwisselen en waarschuwingen openbaar maken.
Maar net als bij StratCom is het waarschuwingssysteem informeel beperkt tot campagnes die van buiten de EU stammen en daardoor machteloos tegen nepnieuwscampagnes van eigen bodem.
ADVERTENTIEHERKOMST
Waar men het in de EU over eens is, is dat de bedrijven achter grote sociale netwerken zoals Facebook, Twitter en Google (YouTube) hun platforms beter moeten monitoren. Vorig jaar nog probeerde bijvoorbeeld Facebook-oprichter Mark Zuckerberg alle verantwoordelijkheid af te schuiven. Facebook zou alleen de technische infrastructuur beschikbaar stellen, de content was niet van Facebook en dus hoefde men die ook niet te controleren. Maar de EU benadrukte steeds meer dat men met regelgeving zou komen als de beheerders niet zelf meer zouden optreden. Uiteindelijk had dat resultaat: in september 2018 overlegden Facebook, Google en andere online portals met de Europese Commissie over maatregelen voor zelfregulatie.
De ondertekenaars van het overleg verplichten zich ontmaskerde fake-accounts en social-bots snel te blokkeren. Van accounts en websites die desinformatie verspreiden, moeten de reclame-inkomsten geconfisqueerd worden. De deelnemers moeten gebruikers aanmoedigen om nepnieuws te melden. Bovendien moet de ‘zichtbaarheid en vindbaarheid van betrouwbare content’ worden verbeterd.
Het actieplan van december heeft nog niet genoeg effect gehad. De platforms hebben na het ondertekenen van de vrijwillige ‘code of practice’ wel stappen gezet, maar er is nog genoeg te doen. In een recente verklaring sprak de Europese Commissie dan ook uit dat “… het teleurstellend is dat Google en Twitter nog geen vorderingen hebben gerapporteerd betreffende transparantie bij reclame rond kwesties die een rol spelen bij belangrijke publieke discussies … De vrijwillige acties zijn een stap vooruit … maar er moet nog steeds veel gebeuren”.
De platformen moeten tegenwoordig maandelijks voortgangsrapporten sturen naar de Europese Commissie. Daarin moeten ze aangeven welke concrete maatregelen ze genomen hebben. Het gaat er niet alleen om dat de verspreiders van fake news (of dat nu echte accounts of bots zijn) sneller herkend en geblokkeerd moeten worden, maar het is ook belangrijk dat meer transparantie bij getoonde advertenties op de platforms ervoor zorgt dat desinformatiecampagnes
via dergelijke advertenties dan worden tegengegaan. Facebook heeft de beloofde ‘Advertentiebibliotheek’ (zie de afbeelding en link op de rechterpagina) ondertussen beschikbaar gemaakt. Gebruikers kunnen daarin via trefwoorden zoeken naar advertenties en de herkomst en andere informatie bekijken. Je kunt ook rapporten bekijken per periode, land of andere kenmerken en rapporten voor een periode downloaden. Behalve gegevens over de doelgroep, zie je ook wie er voor een advertentie heeft betaald.
Facebook heeft naar eigen zeggen bij de Europese parlementsverkiezingen extra maatregelen genomen. Zo werden bij kandidaten uit Denemarken geen verkiezingsadvertenties getoond uit Italië, Rusland en de VS. Dat zou desinformatiecampagnes van buitenlandse bronnen moeten tegengaan. Kandidaten en adverteerders moesten bovendien hun identiteit bevestigen.Facebook-manager Richard Allen is ervan overtuigd dat de nieuwe instrumenten zullen helpen bij het verhinderen van toekomstige inmenging in verkiezingen via het platform. Dat valt te betwijfelen, want de maatregelen gelden alleen voor openbare politieke campagnes. Zogeheten ‘dark ads’ vallen er niet onder. Daarbij worden fake-berichten heel gericht naar kleine doelgroepen gestuurd om die te beïnvloeden. Juist dat soort micro-targeting was volgens Amerikaanse onderzoeken een effectieve vorm van manipulatie bij de Amerikaanse presidentsverkiezingen.
Toch sprak de Europese Commissie bij zijn commentaar in april ook tevredenheid uit over de rapporten van de sociale netwerken: “we zijn vooral verheugd dat Google steeds meer samenwerkt met fact-checking organisaties en netwerken. Bovendien hebben alle drie de platforms initiatieven ontplooid om mediawijsheid te promoten en training te geven aan journalisten en campagnemedewerkers”.
BLINDE VLEKKEN
De Europese Commissie moet afgaan op de uitspraken van beheerders van platforms bij het beoordelen van de getroffen maatregelen. Vooral Facebook heeft het platform na het Cambridge-Analytica-schandaal flink verbouwd. Empirisch onderzoek naar bijvoorbeeld verspreidingsroutes van desinformatie is daardoor volgens veel onderzoekers nauwelijks haalbaar.
In het rapport ‘De blinde vlek van digitale openbaarheid’ (zie de link rechtsonder) geeft onderzoeker Alexander Sängerlaub uiterst nauwkeurig aan welke geanonimiseerde gegevens nodig zijn om wetenschappers en onderzoeksjournalisten conclusies te kunnen laten trekken uit sociale netwerken.
“We kunnen momenteel nauwelijks systematisch onderzoeken hoe veel desinformatie zich op welke sociale netwerken bevindt, wie dit systematisch verspreidt of hoe groot die invloed is op onze politieke debatten”, klaagt Sängerlaub.
De roep groeit dan ook om Facebook en Google en dergelijke daarom sterker ter verantwoording te roepen. Facebook-baas Zuckerberg kwam vorig jaar bijvoorbeeld al opdraven in het Europees parlement en in mei waren de directeuren van de Nederlandse afdeling van Google en Facebook nog aanwezig bij een ‘Rondetafelgesprek over de datasamenleving en democratie’ (zie link) van de Nederlandse commissie voor Binnenlandse Zaken. In een beleidsbrief aan de Tweede Kamer pleitte de staatssecretaris van Economische Zaken voor scherper toezicht op de macht die grote techbedrijven hebben en maatregelen op Europees niveau.
Alle acties van Europese kant kunnen de nieuwe realiteit echter niet wegnemen: sociale netwerken hebben de manier veranderd waarop burgers informatie krijgen en doorgeven. Terwijl vroeger klassieke media als kranten en overheidsinstanties dat bepaalden, kan nu iedereen berichten publiceren die door niet-transparante algoritmes worden gefilterd en getoond aan selecte ontvangers.
Overheidsinstanties worden door het publiek doorgaans als betrouwbaar beschouwd en het oordeel van goed opgeleide journalisten telt mee. Maar die bereiken een steeds kleiner publiek, zeker onder jongeren. Die worden blootgesteld aan een onoverzichtelijke informatiestroom waarbij ze zelf moeten bedenken wat ze wel of niet geloven. Het ‘reputatiemechanisme’ verandert, zoals ook in het rapport ‘Digitalisering en nepnieuws’ (zie link) gesteld wordt.
Juist bij belangrijke politieke gebeurtenissen is het raadzaam de sociale netwerken met gezond wantrouwen te bekijken. Facebook biedt tegenwoordig iets meer inzicht en toont bij gedeelde nieuwsberichten informatie over de bron. Maar dat helpt niet altijd. In de strijd om aandacht laten ook klassieke media steeds vaker gedegen journalistiek achterwege, in elk geval online, en publiceren ook zij nepnieuws.
Op de maatregelen van de EU moet je ook niet te veel rekenen. Je kunt het beste gewoon je gezond verstand gebruiken en ook bij de minste twijfel zelf even wat onderzoek doen. Google is in dat geval wel behulpzaam. Ook hoax-verzamelsites als mimikama.at kun je ter controle raadplegen.
Het is in elk geval verstandig om zelf niet te snel berichten te delen en op die manier leugens en propaganda (verder) te verspreiden.