Les « CSA » eu­ro­péens veulent plus contre les fake news

Edition Multimédi@ - - La Une -

Les Google, Fa­ce­book et autres Twit­ter ont été contraints de se consti­tuer en « po­lice pri­vée » pour chas­ser sur In­ter­net les fausses in­for­ma­tions. Li­ber­té d’ex­pres­sion et li­ber­té d’in­for­mer sont pas­sées au crible pour sup­pri­mer les in­fox. Mais pour les « CSA » eu­ro­péens, ce­la ne pas as­sez loin.

Le groupe des ré­gu­la­teurs eu­ro­péens des mé­dias au­dio­vi­suels, l’er­ga (1), a pu­blié le 6 mai son « rap­port sur la dés­in­for­ma­tion et l’éva­lua­tion de la mise en oeuvre du code de pra­tique » pour lut­ter contre les fake news. Ce rap­port fi­nal in­ter­vient deux ans après l’adop­tion par la Com­mis­sion eu­ro­péenne de me­sures fon­dées sur les conclu­sions et les re­com­man­da­tions pré­sen­tées le 12 mars 2018 par « un groupe d’ex­perts de haut ni­veau » pour lut­ter contre la dés­in­for­ma­tion en ligne (2).

Au­to­ré­gu­la­tion des ac­teurs du Net

Dans la fou­lée, le 24 avril 2018, la Com­mis­sion eu­ro­péenne pu­bliait une com­mu­ni­ca­tion in­ti­tu­lée « Lut­ter contre la dés­in­for­ma­tion en ligne : une ap­proche eu­ro­péenne » (3), qui pré­co­ni­sait un code de bonnes pra­tiques et de nou­velles règles vi­sant à ac­croître la trans­pa­rence et l’équi­té des pla­te­formes en ligne, no­tam­ment la mise en place d’un ré­seau in­dé­pen­dant de vé­ri­fi­ca­teurs de faits dans le cadre d’une dé­marche d’au­to­ré­gu­la­tion des ac­teurs du Net. Ces der­niers ont été fer­me­ment in­vi­tés à co­opé­rer avec l’exé­cu­tif eu­ro­péen dans cette croi­sade contre les men­songes, les ma­ni­pu­la­tions et les in­for­ma­tions er­ro­nées. Le 16 oc­tobre 2018, les pre­miers si­gna­taires de ce « code de bonne conduite » furent Fa­ce­book, Google, Twit­ter et Mo­zilla (édi­teur du na­vi­ga­teur Fi­re­fox). Dans le même temps, l’edi­ma (Eu­ro­pean Di­gi­tal Me­dia As­so­cia­tion) – lob­by ba­sé à Bruxelles et re­pré­sen­tant les GA­FAM (Google, Ama­zon, Fa­ce­book, Apple et Mi­cro­soft) ain­si que Airbnb, Al­le­gro, ebay, Ex­pe­dia, Mo­zilla Mo­zilla, OLX, Snap, Tri­pad­vi­sor, Twit­ter, Ve­ri­zon Me­dia, Yelp et Spo­ti­fy – si­gnait éga­le­ment ce code « an­ti-fake news », tout comme les as­so­cia­tions pro­fes­sion­nelles re­pré­sen­tant l’in­dus­trie de la pu­bli­ci­té et les an­non­ceurs (EACA, IAB Eu­rope, WFA et UBA). Mi­cro­soft a éga­le­ment re­joint le 22 mai 2019 les en­tre­prises si­gna­taires. C’est lors des élec­tions eu­ro­péennes de mai 2019 que les pla­te­formes nu­mé­riques par­ti­ci­pantes – Fa­ce­book, Google et Twit­ter en tête – ont pu­blié des rap­ports men­suels sur la mise en oeuvre de leurs ac­tions dans le cadre de ce « code de pra­tique sur la dés­in­for­ma­tion » et dans un sou­ci de « trans­pa­rence de la pu­bli­ci­té po­li­tique ». Cinq re­le­vés men­suels ont été pu­bliés sur cette pé­riode élec­to­rale, de jan­vier à mai 2019, dont le der­nier pu­blié il y a un an, le 14 juin (4). L’er­ga en a fait la syn­thèse dans un rap­port « mo­ni­to­ring » in­ter­mé­diaire, en concluant que les GA­FAM pou­vaient mieux faire. « Google, Twit­ter et Fa­ce­book ont fait des pro­grès évi­dents dans la mise en oeuvre des en­ga­ge­ments du “Code of Prac­tice on Di­s­in­for­ma­tion” en créant une pro­cé­dure ad hoc pour l’iden­ti­fi­ca­tion des pu­bli­ci­tés po­li­tiques et de leurs spon­sors, et en ren­dant ac­ces­sible au pu­blic les pu­bli­ci­tés en ques­tion. Il s’agis­sait d’un ef­fort sé­rieux vi­sant à ac­croître la trans­pa­rence. Ce­pen­dant, bien que les pla­te­formes aient four­ni des in­for­ma­tions sub­stan­tielles qui pou­vaient être si­gni­fi­ca­tives pour les uti­li­sa­teurs in­di­vi­duels, le sui­vi in­dique que les bases de don­nées au­raient dû être da­van­tage dé­ve­lop­pées [no­tam­ment plus dé­taillées, ndlr] afin de four­nir les ou­tils et les don­nées né­ces­saires pour as­su­rer la qua­li­té élec­to­rale » (5). Les ré­gu­la­teurs eu­ro­péens de l’audiovisue­l avaient en outre dé­jà consta­té que les no­tions de « dés­in­for­ma­tion » et de « pu­bli­ci­té po­li­tique » n’ont pas de dé­fi­ni­tions par­ta­gées par les Etats membres, dont cer­tains n’ont même au­cune dé­fi­ni­tion des pu­bli­ci­tés po­li­tiques. A ce­la s’ajou­tait aus­si le fait que la plu­part des « CSA » en Eu­rope dis­po­saient de com­pé­tences, de pou­voirs et de res­sources ju­ri­diques très li­mi­tés pour s’en­ga­ger dans l’ac­ti­vi­té de sur­veillance des pla­te­formes en ligne. Il y a un an, l’er­ga es­ti­mait alors que l’ap­proche de co­opé­ra­tion en ma­tière de ré­gu­la­tion – ap­pe­lée aus­si co-ré­gu­la­tion – adop­tée par les ins­ti­tu­tions eu­ro­péennes ne de­vait pas em­pê­cher d’al­ler plus loin en ren­dant exé­cu­toires ou contrai­gnantes (en­for­ceable) les dis­po­si­tions du code « an­ti-in­fox ».

Ren­for­cer les au­to­ri­tés de sur­veillance

Ce­la sup­po­sait aus­si, se­lon l’er­ga, que les au­to­ri­tés de ré­gu­la­tion char­gées de sur­veiller le res­pect de ces dis­po­si­tions par les pla­te­formes du Net dis­posent éga­le­ment d’ou­tils, d’ac­cès aux in­for­ma­tions et de l’au­to­no­mie né­ces­saires pour s’ac­quit­ter de cette tâche. « Il est cru­cial que les au­to­ri­tés de sur­veillance [« mo­ni­tors », dans le texte, ndlr] aient la pos­si­bi­li­té de créer leurs propres re­quêtes, filtres et ou­tils d’ana­lyse qui de­vraient être orien­tés vers les don­nées brutes, non fil­trées et non gé­rées dans les bases de don­nées des pla­te­formes nu­mé­riques. L’in­for­ma­tion de­vrait être four­nie de ma­nière à leur per­met éga­le­ment d’éta­blir fa­ci­le­ment le vo­lume de pu­bli­ci­té sur une pé­riode de temps dé­fi­nie, de com­prendre des in­for­ma­tions dé­taillées

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.