Réseaux sociaux : le salaire de la haine
L’assassinat de Samuel Paty repose la question de la responsabilité des plateformes. Malgré des efforts, leurs algorithmes continuent de polariser la société.
Guillaume Chaslot n’est pas comédien. Pourtant, le moteur de recherche de Google, pour lequel il a travaillé durant plusieurs années en Californie, semble le présenter comme tel lorsque l’on tape son nom. Si cet ingénieur en intelligence artificielle a bien participé à un film, il s’agit en réalité d’un documentaire à succès dans lequel il apporte un témoignage particulièrement critique contre son ancien employeur. Derrière nos écrans de fumée (The Social Dilemma), diffusé depuis quelques semaines sur Netflix, fait couler beaucoup d’encre et de pixels. A ses côtés, d’anciens responsables des plus grands réseaux sociaux (Facebook, Twitter, Pinterest…), des « repentis » de la Silicon Valley, décortiquent et dénoncent la façon dont fonctionnent les services développés par leurs soins, destinés à capter à tout prix l’attention et le temps des internautes pour le vendre ensuite à des annonceurs. Un modèle lucratif, dans lequel les données des utilisateurs deviennent la matière première, scrutée à la loupe pour anticiper les envies et les besoins. « Quand je travaillais pour YouTube (filiale de Google), de 2010 à 2013, j’ai tenté de leur expliquer que l’algorithme de recommandation favorisait la circulation des théories les plus toxiques, des clashs et de l’extrémisme, se souvient Guillaume. Mais ils m’ont répondu que ma méthodologie était mauvaise. » Depuis, ce diplômé de l’université de Maastricht a créé son association, AlgoTransparency, afin de démontrer la viralité plus importante de certains types de contenus erronés comme « la Terre estelle plate ou ronde ? » ou « Théorie de l’évolution contre créationnisme ». « Après les différents scandales survenus ces dernières années, YouTube a reconnu que j’avais raison et a fait des efforts pour lutter contre ce phénomène. Même si, aujourd’hui, cette société et ses pairs sont à nouveau pointés du doigt », ajoutetil.
Facebook, Google, Twitter, Snapchat, TikTok : tous ont été convoqués Place Beauvau la semaine dernière par Marlène Schiappa, la ministre déléguée chargée de la Citoyenneté, afin de s’expliquer sur leur rôle dans l’attentat ayant coûté la vie à Samuel Paty. Dans une vidéo diffusée sur ces réseaux le 7 octobre, le père d’une d’élève du collège du Boisd’Aulne (ConflansSainteHonorine), appelait en effet les parents à demander des sanctions contre le professeur d’histoiregéographie, qui avait montré des caricatures de Mahomet lors d’un cours sur la liberté d’expression. Le 16 octobre, l’enseignant était assassiné par un terroriste en fin d’aprèsmidi, l’image de sa décapitation circulant ensuite sur les plateformes Internet durant toute la nuit. Le cliché a été enlevé rapidement par Twitter, avant même la demande des autorités françaises, mais moins vite par Facebook. « La lutte contre la haine et le terrorisme en ligne est une priorité absolue pour nous depuis de nombreuses années, indique la société dirigée par Mark Zuckerberg. Nous ne cessons de renforcer nos règles en la matière et avons massivement investi pour renforcer nos équipes et développer des technologies visant à éradiquer la haine. »
Ces dernières années, Facebook a en effet mis les moyens pour faire le ménage dans ses contenus, avec 15 000 personnes spécialement chargées de les modérer. A cela s’ajoutent des procédés de détection automatique fondés sur l’intelligence artificielle. Des process renforcés qui, estime le réseau social, lui ont permis de repérer au deuxième trimestre 94,5 % de messages haineux et 99,6 % de contenus terroristes, avant même leur signalement par des internautes. Ont également été fermées les pages de l’humoriste Dieudonné pour ses « discours de haine », comme l’avait fait YouTube précédemment. Les deux plateformes américaines ont par ailleurs annoncé leur volonté de retirer les vidéos et les publicités contre la vaccination, à l’heure où les laboratoires cherchent à élaborer un sérum contre le Covid.
L’objectif de la collecte de données, c’est d’influencer les humeurs et les comportements
Mais cette lutte a aussi ses limites. D’une part, elle se fait en complète autorégulation, à partir de données internes – auxquelles seules ces sociétés ont accès. Aucun organisme extérieur ne peut vérifier l’authenticité de leurs déclarations. D’autre part, cette modération ne doit pas venir trop affecter leur modèle économique, fondé sur la publicité. Likes, partages, commentaires, retweets… toutes les interactions avec les éléments publiés améliorent leur connaissance des utilisateurs, afin que leur ciblage soit le plus fin possible pour le monétiser ensuite auprès des annonceurs. Une recette magique qui fonctionne aujourd’hui à plein. L’an dernier, aux Etats-Unis, Facebook et Google captaient à eux deux 59,3 % du marché des dépenses publicitaires en ligne, soit 76,5 milliards de dollars sur un total de 129,06 milliards, selon eMarketer.
Hors de question de casser cette machine à cash, comme le démontre l’ouvrage L’Age du capitalisme de surveillance (Editions Zulma). Son auteure, Shoshana Zuboff, enseignante à Harvard, y relate les propos d’un ingénieur : « L’objectif principal de la plupart des gens qui travaillent sur les données chez Facebook, c’est d’influencer et de modifier les humeurs et les comportements des gens. Ils le font en permanence, en vous faisant “liker” tel article, cliquer davantage sur telle pub… C’est la façon dont fonctionnent tous les sites Internet : tout le monde le fait et tout le monde sait que tout le monde le fait. » Dans cette course à l’attention, tous les moyens sont bons pour retenir l’internaute en suscitant chez lui une ou plusieurs des six « émotions de base » telles que définies par le psychologue Paul Ekman : colère, peur, tristesse, joie, dégoût et surprise.
Dès lors, les propos les plus clivants, les messages les plus partisans et les articles les plus critiques circulent rapidement car ils engendrent une réaction, un engagement des utilisateurs. Une récente note interne dévoilée par le quotidien The Wall Street Journal mentionnait en mai dernier qu’une équipe de Facebook avait alerté son PDG à ce sujet. « Nos algorithmes exploitent l’attrait du cerveau humain pour la division. Si rien n’est fait, nous proposerons aux utilisateurs de plus en plus de contenus qui divisent dans le but d’attirer leur attention et d’augmenter le temps passé sur la plateforme. » Et ce temps, c’est de l’argent. La direction a mis de côté cet avertissement.
En effet, les dirigeants déambulent sur une ligne de crête entre la menace d’être accusés d’actes de censure et d’atteintes à la liberté d’expression, et celle de ne rien faire contre le harcèlement, le terrorisme et la haine. Mais cette posture n’est plus tenable et nuit à leur image. Dans un sondage publié le 15 octobre par le centre d’études Pew Research Center, 64 % des Américains considèrent que les réseaux sociaux ont un impact principalement négatif sur leur pays. En Europe, ils se sont engagés à suivre le code de conduite des Vingt-Sept pour la lutte contre les propos haineux. Mais cela ne répond pas nécessairement aux questions de polarisation de la société civile autour de certains thèmes politiques. « Twitter a une démarche intéressante, juge un représentant de la haute administration française. Il propose aux utilisateurs de lire un tweet et de le commenter avant de le partager. Cela oblige le lecteur à prendre un peu plus de temps et cela ralentit la circulation des informations. » Ce « Slow Web », imaginé par l’écrivain Jack Cheng dès 2012, cherche à casser la dictature de l’instantanéité. Une piste pour retrouver un peu de sérénité.
W
P. 62. Fukushima en eaux troubles
P. 63. Covid-19 : les tests rapides, entre espoirs et inquiétudes