Sur les réseaux, l’impossible censure
Sous pression, les géants du web endossent enfin leur responsabilité de diffuseurs de contenus. Mais comment faire le tri parmi des millions de messages mis en ligne chaque minute? Un casse-tête vertigineux et un enjeu de société majeur
«Delete… Ignore… Delete… Delete… Ignore»
On les appelle les nettoyeurs du web. Face à un écran, souvent plongés dans le noir pour favoriser leur concentration, ces hommes et ces femmes ont rarement plus de quelques secondes pour décider si les contenus qui défilent devant eux, signalés par des internautes comme posant problème, ou repérés par de l’intelligence artificielle, peuvent rester sur internet, ou s’ils doivent être effacés. «Delete, Ignore». Ce peut être des images de décapitation de l’Etat islamique, de pornographie, des fake news, des appels à la haine, des vidéos de suicide en direct. Les nettoyeurs ont reçu une formation, ils ont un guide, avec les lignes directrices de leur employeur, un réseau social. Un post est retiré à tort pour cent qui le sont à raison, estime Facebook, un des employeurs de ces nettoyeurs. Un documentaire a rendu hommage à ces cleaners, montré à Genève dans le cadre du Festival du film et forum international sur les droits humains (et diffusé ce soir à 22h30 sur Arte). Le turnover est important. Un métier très dur. Mais un métier d’avenir.
C’est l’affaire Alex Jones qui a mis en lumière cet été l’importance des politiques de modération de contenus des réseaux sociaux. Depuis des années, cet animateur de radio d’extrême droite américain profitait de la liberté d’expression promise par Facebook, Twitter ou YouTube pour cracher ses théories du complot en toute impunité sur son canal Infowars. Mais ce boulevard des bas instincts a fini par s’arrêter quand Apple le premier a retiré ses podcasts de son magasin, suivi par YouTube – où l’on trouve encore ses émissions mais plus en direct, Spotify et Facebook (qui précise qu’il a agi en raison du langage utilisé et non des thèses conspirationnistes). Twitter a réagi différemment en le censurant une semaine. «Ces interdictions sont contraires au premier amendement sur la liberté d’expression», a hurlé le conspirationniste, qui dénonce «l’establishment». Une affaire qui pose la question de qui décide de ce que nous voyons, ce que nous entendons. Longtemps ce fut une prérogative des Etats. Aujourd’hui, c’est celle de toutes-puissantes sociétés américaines.
«Ma vidéo de mise en garde sur le chantage sexuel à la webcam sur YouTube a un moment été retirée, et encore aujourd’hui elle est estampillée pour les plus de 18 ans, un non-sens, raconte Stéphane Koch, expert numérique romand. Et je viens d’avoir trois de mes contenus récemment signalés comme indésirables par Facebook, l’un sur le bonheur, l’autre sur Asia Argento dans le cadre de l’affaire #Metoo, et le dernier sur Idriss Aberkane, l’auteur controversé du livre Libérez votre cerveau!. J’ai dû préciser que je maintenais mes publications, que je ne les jugeais pas indésirables.» En l’occurrence, si ce n’est pas une erreur technique, c’est que Facebook a reçu un signalement – cette fonction accessible à côté de chaque post, qui permet en toute subjectivité aux internautes d’interpeller la plateforme parce qu’ils estiment être en face de nudité, de violence ou de harcèlement.
Chez Facebook, de 12 à 7500 modérateurs en neuf ans
Facebook ne comptait que 12 personnes pour modérer ses publications en 2009, quand le réseau comptait 120 millions d’utilisateurs. En 2017 ils étaient 4500, et cette année ils sont 7500, qui examinent toutes les semaines 10 millions de messages, dans une centaine de langues, partout dans le monde, et la plupart du temps via des sociétés tierces. Un signalement est en principe traité en vingt-quatre heures. Soixante personnes sont employées à temps plein à Palo Alto avec pour seule mission d’élaborer les «standards de la communauté». Car après des années de reproches, le plus grand réseau social du monde, avec 2,1 milliards d’inscrits dont 1,6 milliard d’actifs, a enfin décidé de s’attaquer à la modération de ses contenus, reconnaissant, depuis le scandale de l’influence russe sur les élections de 2016, sa responsabilité d’éditeur.
Facebook semble d’ailleurs commencer à donner un vaste tour de vis. En août le réseau a fermé plus de 600 pages de campagne d’influence en lien avec la Russie ou l’Iran, et ce lundi celles de responsables de l’armée birmane pour «violations des droits de l’homme» – même l’ONU a accusé le réseau d’avoir attisé la haine contre les Rohingyas.
Plus près de nous, la page «Complots faciles pour briller en société», qui annonce lutter (avec plus ou moins de bonheur) contre les fake news et qui compte plus de 440000 abonnés, vient aussi de pousser un «coup de gueule» contre Facebook: sept de ses publications viennent d’être supprimées, ce qui ouvre la porte à la fermeture de la page tout entière. Sans que Facebook ait donné ses raisons, alors que la page conteste six des sept suppressions. L’administrateur a prudemment créé une page de secours, au cas où…
De nouvelles normes sociales décidées par les géants du web
Twitter aussi annonce régulièrement des suppressions de comptes par milliers, tout comme la plateforme de blogs Wordpress qui vient de se débarrasser de plusieurs sites conspirationnistes. «C’est la fin de cette fiction qui convenait à tous de réseaux neutres, explique Tarleton Gillespie, universitaire américain qui vient de publier Custodians of the Internet (Yale Press, «Les gardiens d’internet»). La promesse était claire: postez ce que vous voulez, nous le ferons circuler. Cherchez ce que vous voulez, vous le trouverez. La réalité est que les réseaux doivent faire des choix: qu’est-ce qui doit être vu, par qui? Et cela dessine de nouvelles normes.» Les Big Tech doivent tout absorber pour conserver leur business model, mais n’en redistribuer qu’une part, et aux bonnes personnes.
Tous les réseaux sont concernés par cette question. Tous font confiance à
l’intelligence artificielle pour repérer les photos de nudité par exemple, mais elle est peu efficace pour les contenus haineux. En dernier ressort, les humains restent incontournables. Mais qui décide de quels seuils? Et qui les fait respecter? «Le traitement aujourd’hui est encore assez aléatoire, vous continuez à trouver des contenus illicites, estime Stéphane Koch. Et cela va devenir encore plus compliqué pour les réseaux avec la pression de l’Union européenne pour exiger le retrait dans l’heure des contenus terroristes signalés par les autorités.» Les réseaux doivent aussi s’adapter aux législations nationales. Ainsi Facebook a déjà reconnu qu’il était très attentif aux propos négationnistes dans les pays qui les poursuivent activement – comme l’Allemagne ou la France. Les plateformes vont devoir aussi s’adapter dans les pays qui légifèrent sur les fake news.
YouTube a commencé à proposer des éléments de contexte provenant de Wikipedia pour accompagner les vidéos problématiques. Twitter songe aussi à entourer les tweets «mensongers de manière évidente», selon les mots de son PDG Jack Dorsey, d’autres messages donnant plus de contexte, pour que les utilisateurs «puissent se faire leur propre opinion». La semaine dernière, les grands réseaux sociaux se sont pour la première fois retrouvés pour mieux se coordonner, pour mieux contrôler les contenus.
Personne n’aime tomber sur des contenus dangereux ou illégaux sur ses comptes de réseaux sociaux. Mais personne ne sait encore qui pourrait contrôler les contrôleurs.
▅