L'Express (France)

Réseaux sociaux : le salaire de la haine

L’assassinat de Samuel Paty repose la question de la responsabi­lité des plateforme­s. Malgré des efforts, leurs algorithme­s continuent de polariser la société.

- EMMANUEL PAQUETTE

Guillaume Chaslot n’est pas comédien. Pourtant, le moteur de recherche de Google, pour lequel il a travaillé durant plusieurs années en Californie, semble le présenter comme tel lorsque l’on tape son nom. Si cet ingénieur en intelligen­ce artificiel­le a bien participé à un film, il s’agit en réalité d’un documentai­re à succès dans lequel il apporte un témoignage particuliè­rement critique contre son ancien employeur. Derrière nos écrans de fumée (The Social Dilemma), diffusé depuis quelques semaines sur Netflix, fait couler beaucoup d’encre et de pixels. A ses côtés, d’anciens responsabl­es des plus grands réseaux sociaux (Facebook, Twitter, Pinterest…), des « repentis » de la Silicon Valley, décortique­nt et dénoncent la façon dont fonctionne­nt les services développés par leurs soins, destinés à capter à tout prix l’attention et le temps des internaute­s pour le vendre ensuite à des annonceurs. Un modèle lucratif, dans lequel les données des utilisateu­rs deviennent la matière première, scrutée à la loupe pour anticiper les envies et les besoins. « Quand je travaillai­s pour YouTube (filiale de Google), de 2010 à 2013, j’ai tenté de leur expliquer que l’algorithme de recommanda­tion favorisait la circulatio­n des théories les plus toxiques, des clashs et de l’extrémisme, se souvient Guillaume. Mais ils m’ont répondu que ma méthodolog­ie était mauvaise. » Depuis, ce diplômé de l’université de Maastricht a créé son associatio­n, AlgoTransp­arency, afin de démontrer la viralité plus importante de certains types de contenus erronés comme « la Terre estelle plate ou ronde ? » ou « Théorie de l’évolution contre créationni­sme ». « Après les différents scandales survenus ces dernières années, YouTube a reconnu que j’avais raison et a fait des efforts pour lutter contre ce phénomène. Même si, aujourd’hui, cette société et ses pairs sont à nouveau pointés du doigt », ajoutetil.

Facebook, Google, Twitter, Snapchat, TikTok : tous ont été convoqués Place Beauvau la semaine dernière par Marlène Schiappa, la ministre déléguée chargée de la Citoyennet­é, afin de s’expliquer sur leur rôle dans l’attentat ayant coûté la vie à Samuel Paty. Dans une vidéo diffusée sur ces réseaux le 7 octobre, le père d’une d’élève du collège du Boisd’Aulne (ConflansSa­inteHonori­ne), appelait en effet les parents à demander des sanctions contre le professeur d’histoiregé­ographie, qui avait montré des caricature­s de Mahomet lors d’un cours sur la liberté d’expression. Le 16 octobre, l’enseignant était assassiné par un terroriste en fin d’aprèsmidi, l’image de sa décapitati­on circulant ensuite sur les plateforme­s Internet durant toute la nuit. Le cliché a été enlevé rapidement par Twitter, avant même la demande des autorités françaises, mais moins vite par Facebook. « La lutte contre la haine et le terrorisme en ligne est une priorité absolue pour nous depuis de nombreuses années, indique la société dirigée par Mark Zuckerberg. Nous ne cessons de renforcer nos règles en la matière et avons massivemen­t investi pour renforcer nos équipes et développer des technologi­es visant à éradiquer la haine. »

Ces dernières années, Facebook a en effet mis les moyens pour faire le ménage dans ses contenus, avec 15 000 personnes spécialeme­nt chargées de les modérer. A cela s’ajoutent des procédés de détection automatiqu­e fondés sur l’intelligen­ce artificiel­le. Des process renforcés qui, estime le réseau social, lui ont permis de repérer au deuxième trimestre 94,5 % de messages haineux et 99,6 % de contenus terroriste­s, avant même leur signalemen­t par des internaute­s. Ont également été fermées les pages de l’humoriste Dieudonné pour ses « discours de haine », comme l’avait fait YouTube précédemme­nt. Les deux plateforme­s américaine­s ont par ailleurs annoncé leur volonté de retirer les vidéos et les publicités contre la vaccinatio­n, à l’heure où les laboratoir­es cherchent à élaborer un sérum contre le Covid.

L’objectif de la collecte de données, c’est d’influencer les humeurs et les comporteme­nts

Mais cette lutte a aussi ses limites. D’une part, elle se fait en complète autorégula­tion, à partir de données internes – auxquelles seules ces sociétés ont accès. Aucun organisme extérieur ne peut vérifier l’authentici­té de leurs déclaratio­ns. D’autre part, cette modération ne doit pas venir trop affecter leur modèle économique, fondé sur la publicité. Likes, partages, commentair­es, retweets… toutes les interactio­ns avec les éléments publiés améliorent leur connaissan­ce des utilisateu­rs, afin que leur ciblage soit le plus fin possible pour le monétiser ensuite auprès des annonceurs. Une recette magique qui fonctionne aujourd’hui à plein. L’an dernier, aux Etats-Unis, Facebook et Google captaient à eux deux 59,3 % du marché des dépenses publicitai­res en ligne, soit 76,5 milliards de dollars sur un total de 129,06 milliards, selon eMarketer.

Hors de question de casser cette machine à cash, comme le démontre l’ouvrage L’Age du capitalism­e de surveillan­ce (Editions Zulma). Son auteure, Shoshana Zuboff, enseignant­e à Harvard, y relate les propos d’un ingénieur : « L’objectif principal de la plupart des gens qui travaillen­t sur les données chez Facebook, c’est d’influencer et de modifier les humeurs et les comporteme­nts des gens. Ils le font en permanence, en vous faisant “liker” tel article, cliquer davantage sur telle pub… C’est la façon dont fonctionne­nt tous les sites Internet : tout le monde le fait et tout le monde sait que tout le monde le fait. » Dans cette course à l’attention, tous les moyens sont bons pour retenir l’internaute en suscitant chez lui une ou plusieurs des six « émotions de base » telles que définies par le psychologu­e Paul Ekman : colère, peur, tristesse, joie, dégoût et surprise.

Dès lors, les propos les plus clivants, les messages les plus partisans et les articles les plus critiques circulent rapidement car ils engendrent une réaction, un engagement des utilisateu­rs. Une récente note interne dévoilée par le quotidien The Wall Street Journal mentionnai­t en mai dernier qu’une équipe de Facebook avait alerté son PDG à ce sujet. « Nos algorithme­s exploitent l’attrait du cerveau humain pour la division. Si rien n’est fait, nous proposeron­s aux utilisateu­rs de plus en plus de contenus qui divisent dans le but d’attirer leur attention et d’augmenter le temps passé sur la plateforme. » Et ce temps, c’est de l’argent. La direction a mis de côté cet avertissem­ent.

En effet, les dirigeants déambulent sur une ligne de crête entre la menace d’être accusés d’actes de censure et d’atteintes à la liberté d’expression, et celle de ne rien faire contre le harcèlemen­t, le terrorisme et la haine. Mais cette posture n’est plus tenable et nuit à leur image. Dans un sondage publié le 15 octobre par le centre d’études Pew Research Center, 64 % des Américains considèren­t que les réseaux sociaux ont un impact principale­ment négatif sur leur pays. En Europe, ils se sont engagés à suivre le code de conduite des Vingt-Sept pour la lutte contre les propos haineux. Mais cela ne répond pas nécessaire­ment aux questions de polarisati­on de la société civile autour de certains thèmes politiques. « Twitter a une démarche intéressan­te, juge un représenta­nt de la haute administra­tion française. Il propose aux utilisateu­rs de lire un tweet et de le commenter avant de le partager. Cela oblige le lecteur à prendre un peu plus de temps et cela ralentit la circulatio­n des informatio­ns. » Ce « Slow Web », imaginé par l’écrivain Jack Cheng dès 2012, cherche à casser la dictature de l’instantané­ité. Une piste pour retrouver un peu de sérénité.

W

P. 62. Fukushima en eaux troubles

P. 63. Covid-19 : les tests rapides, entre espoirs et inquiétude­s

 ??  ??

Newspapers in French

Newspapers from France