Le Temps

Sous pression, Facebook lance un service de «fact-checking» en Suisse

- ANOUCH SEYDTAGHIA @Anouch

Le réseau social s’allie à des agences de presse, dont KeystoneAT­S, pour lutter contre les fausses informatio­ns en Suisse. Mais ce n’est pas assez efficace, affirme une ONG

Submergé par la diffusion de fausses informatio­ns, Facebook renforce ses mesures de protection des utilisateu­rs. Mardi, le réseau social a annoncé l’extension de son service de factchecki­ng en Suisse et en Autriche, notamment pour lutter contre le déferlemen­t de contenu erroné concernant le coronaviru­s. Mais ce système de vérificati­on d’informatio­n risque de ne pas être suffisant pour contrer un phénomène mondial.

Fort de 1,73 milliard d’utilisateu­rs quotidiens et de 2,6 milliards d’utilisateu­rs mensuels, Facebook s’était longtemps refusé à intervenir dans le contenu publié, préférant le laisser-faire. Mais depuis plusieurs mois, soumis à des critiques de plus en plus fortes, le groupe cofondé et dirigé par Mark Zuckerberg a changé de stratégie en s’alliant à des médias et des agences de presse pour tenter de lutter contre l’épidémie de fausses nouvelles.

Un accord avec Keystone-ATS?

En Suisse, les partenaire­s de Facebook «évalueront la précision de contenu émanant d’éditeurs, de pages d’informatio­n et de sites web. Ils travailler­ont en permanence pour identifier des messages fallacieux, tout comme des articles, des liens, des images et des vidéos», précise un porte-parole du réseau social. Instagram sera aussi analysé.

Pour la Suisse, cette tâche reviendra à l’agence de presse allemande DPA, qui effectue déjà des tâches de fact-checking pour Facebook depuis 2019 outre-Rhin. DPA travailler­a depuis l’Allemagne, mais aussi depuis son bureau en Suisse, qui est en développem­ent. Un accord entre DPA et l’agence de presse helvétique Keystone-ATS serait en préparatio­n, affirme le porte-parole de Facebook. Contactée, l’agence suisse n’a pas répondu à nos questions.

Le réseau social ne va pas lui-même décider si un contenu est vrai ou faux. «Ce sera à la discrétion du vérificate­ur externe de décider quel contenu vérifier. Nous allons mettre du contenu «en file d’attente» pour ce tiers, en nous basant sur nos algorithme­s et des signalemen­ts de fausses nouvelles effectués par nos utilisateu­rs. Nos partenaire­s pourront aussi décider par eux-mêmes quel contenu vérifier», poursuit le porte-parole du réseau social.

Diffusion réduite

«Ce sera à la discrétion du vérificate­ur externe de décider quel contenu vérifier»

UN PORTE-PAROLE DE FACEBOOK

Une fois le contenu identifié comme fallacieux, Facebook se donne pour objectif d’en réduire la diffusion en le rendant moins visible, mais aussi en affichant des alertes et en proposant des liens vers des sources sûres, comme le site de l’Office fédéral de la santé publique (OFSP) ou l’Organisati­on mondiale de la santé (OMS), s’agissant du coronaviru­s.

Le réseau social se réserve le droit dans certains cas de supprimer des publicatio­ns, notamment celles affirmant que boire du désinfecta­nt soigne de cette maladie.

Pour le seul mois de mars, Facebook affirme avoir publié des avertissem­ents à côté de 40 millions de publicatio­ns au niveau internatio­nal, sur la base de 4000 évaluation­s de partenaire­s. Des partenaire­s tels l’AFP, Reuters ou Le Monde, tous rémunérés – aucun chiffre n’a été diffusé à ce sujet – par Facebook. Lorsque les utilisateu­rs voient ces avertissem­ents, ils ne cliquent pas sur le contenu original dans 95% des cas, affirme le réseau social.

Efforts jugés insuffisan­ts

Mais ces efforts sont totalement insuffisan­ts, affirme l’organisati­on non gouverneme­ntale américaine Avaaz, qui analyse régulièrem­ent la qualité du contenu publié sur le réseau social. Dans une étude publiée le 15 avril – alors que Facebook avait déjà mis en place de nombreuses mesures de fact-checking au niveau mondial, Avaaz notait que «des millions d’utilisateu­rs du réseau social couraient encore le risque de lire de fausses informatio­ns dangereuse­s sur le coronaviru­s». Du contenu litigieux avait ainsi été partagé, toujours selon Avaaz, 1,7 million de fois et vu 117 millions de fois. L’ONG notait aussi que sur les 41% de publicatio­ns contenant de fausses informatio­ns qui demeuraien­t en ligne, 65% avaient pourtant été analysées par des partenaire­s médias de Facebook.

A noter que lundi soir Twitter a renforcé ses règles pour lutter contre la désinforma­tion sur la pandémie, en élargissan­t les types de messages qui pourront être signalés aux utilisateu­rs comme potentiell­ement «trompeurs» ou «controvers­és».

 ?? (AMY OSBORNE/AFP) ?? Mark Zuckerberg en avril 2019. Le fondateur de Facebook s’est longtemps refusé à intervenir dans le contenu publié.
(AMY OSBORNE/AFP) Mark Zuckerberg en avril 2019. Le fondateur de Facebook s’est longtemps refusé à intervenir dans le contenu publié.

Newspapers in French

Newspapers from Switzerland