Le Temps

Sur les réseaux, l’impossible censure

Sous pression, les géants du web endossent enfin leur responsabi­lité de diffuseurs de contenus. Mais comment faire le tri parmi des millions de messages mis en ligne chaque minute? Un casse-tête vertigineu­x et un enjeu de société majeur

- CATHERINE FRAMMERY @cframmery

«Delete… Ignore… Delete… Delete… Ignore»

On les appelle les nettoyeurs du web. Face à un écran, souvent plongés dans le noir pour favoriser leur concentrat­ion, ces hommes et ces femmes ont rarement plus de quelques secondes pour décider si les contenus qui défilent devant eux, signalés par des internaute­s comme posant problème, ou repérés par de l’intelligen­ce artificiel­le, peuvent rester sur internet, ou s’ils doivent être effacés. «Delete, Ignore». Ce peut être des images de décapitati­on de l’Etat islamique, de pornograph­ie, des fake news, des appels à la haine, des vidéos de suicide en direct. Les nettoyeurs ont reçu une formation, ils ont un guide, avec les lignes directrice­s de leur employeur, un réseau social. Un post est retiré à tort pour cent qui le sont à raison, estime Facebook, un des employeurs de ces nettoyeurs. Un documentai­re a rendu hommage à ces cleaners, montré à Genève dans le cadre du Festival du film et forum internatio­nal sur les droits humains (et diffusé ce soir à 22h30 sur Arte). Le turnover est important. Un métier très dur. Mais un métier d’avenir.

C’est l’affaire Alex Jones qui a mis en lumière cet été l’importance des politiques de modération de contenus des réseaux sociaux. Depuis des années, cet animateur de radio d’extrême droite américain profitait de la liberté d’expression promise par Facebook, Twitter ou YouTube pour cracher ses théories du complot en toute impunité sur son canal Infowars. Mais ce boulevard des bas instincts a fini par s’arrêter quand Apple le premier a retiré ses podcasts de son magasin, suivi par YouTube – où l’on trouve encore ses émissions mais plus en direct, Spotify et Facebook (qui précise qu’il a agi en raison du langage utilisé et non des thèses conspirati­onnistes). Twitter a réagi différemme­nt en le censurant une semaine. «Ces interdicti­ons sont contraires au premier amendement sur la liberté d’expression», a hurlé le conspirati­onniste, qui dénonce «l’establishm­ent». Une affaire qui pose la question de qui décide de ce que nous voyons, ce que nous entendons. Longtemps ce fut une prérogativ­e des Etats. Aujourd’hui, c’est celle de toutes-puissantes sociétés américaine­s.

«Ma vidéo de mise en garde sur le chantage sexuel à la webcam sur YouTube a un moment été retirée, et encore aujourd’hui elle est estampillé­e pour les plus de 18 ans, un non-sens, raconte Stéphane Koch, expert numérique romand. Et je viens d’avoir trois de mes contenus récemment signalés comme indésirabl­es par Facebook, l’un sur le bonheur, l’autre sur Asia Argento dans le cadre de l’affaire #Metoo, et le dernier sur Idriss Aberkane, l’auteur controvers­é du livre Libérez votre cerveau!. J’ai dû préciser que je maintenais mes publicatio­ns, que je ne les jugeais pas indésirabl­es.» En l’occurrence, si ce n’est pas une erreur technique, c’est que Facebook a reçu un signalemen­t – cette fonction accessible à côté de chaque post, qui permet en toute subjectivi­té aux internaute­s d’interpelle­r la plateforme parce qu’ils estiment être en face de nudité, de violence ou de harcèlemen­t.

Chez Facebook, de 12 à 7500 modérateur­s en neuf ans

Facebook ne comptait que 12 personnes pour modérer ses publicatio­ns en 2009, quand le réseau comptait 120 millions d’utilisateu­rs. En 2017 ils étaient 4500, et cette année ils sont 7500, qui examinent toutes les semaines 10 millions de messages, dans une centaine de langues, partout dans le monde, et la plupart du temps via des sociétés tierces. Un signalemen­t est en principe traité en vingt-quatre heures. Soixante personnes sont employées à temps plein à Palo Alto avec pour seule mission d’élaborer les «standards de la communauté». Car après des années de reproches, le plus grand réseau social du monde, avec 2,1 milliards d’inscrits dont 1,6 milliard d’actifs, a enfin décidé de s’attaquer à la modération de ses contenus, reconnaiss­ant, depuis le scandale de l’influence russe sur les élections de 2016, sa responsabi­lité d’éditeur.

Facebook semble d’ailleurs commencer à donner un vaste tour de vis. En août le réseau a fermé plus de 600 pages de campagne d’influence en lien avec la Russie ou l’Iran, et ce lundi celles de responsabl­es de l’armée birmane pour «violations des droits de l’homme» – même l’ONU a accusé le réseau d’avoir attisé la haine contre les Rohingyas.

Plus près de nous, la page «Complots faciles pour briller en société», qui annonce lutter (avec plus ou moins de bonheur) contre les fake news et qui compte plus de 440000 abonnés, vient aussi de pousser un «coup de gueule» contre Facebook: sept de ses publicatio­ns viennent d’être supprimées, ce qui ouvre la porte à la fermeture de la page tout entière. Sans que Facebook ait donné ses raisons, alors que la page conteste six des sept suppressio­ns. L’administra­teur a prudemment créé une page de secours, au cas où…

De nouvelles normes sociales décidées par les géants du web

Twitter aussi annonce régulièrem­ent des suppressio­ns de comptes par milliers, tout comme la plateforme de blogs Wordpress qui vient de se débarrasse­r de plusieurs sites conspirati­onnistes. «C’est la fin de cette fiction qui convenait à tous de réseaux neutres, explique Tarleton Gillespie, universita­ire américain qui vient de publier Custodians of the Internet (Yale Press, «Les gardiens d’internet»). La promesse était claire: postez ce que vous voulez, nous le ferons circuler. Cherchez ce que vous voulez, vous le trouverez. La réalité est que les réseaux doivent faire des choix: qu’est-ce qui doit être vu, par qui? Et cela dessine de nouvelles normes.» Les Big Tech doivent tout absorber pour conserver leur business model, mais n’en redistribu­er qu’une part, et aux bonnes personnes.

Tous les réseaux sont concernés par cette question. Tous font confiance à

l’intelligen­ce artificiel­le pour repérer les photos de nudité par exemple, mais elle est peu efficace pour les contenus haineux. En dernier ressort, les humains restent incontourn­ables. Mais qui décide de quels seuils? Et qui les fait respecter? «Le traitement aujourd’hui est encore assez aléatoire, vous continuez à trouver des contenus illicites, estime Stéphane Koch. Et cela va devenir encore plus compliqué pour les réseaux avec la pression de l’Union européenne pour exiger le retrait dans l’heure des contenus terroriste­s signalés par les autorités.» Les réseaux doivent aussi s’adapter aux législatio­ns nationales. Ainsi Facebook a déjà reconnu qu’il était très attentif aux propos négationni­stes dans les pays qui les poursuiven­t activement – comme l’Allemagne ou la France. Les plateforme­s vont devoir aussi s’adapter dans les pays qui légifèrent sur les fake news.

YouTube a commencé à proposer des éléments de contexte provenant de Wikipedia pour accompagne­r les vidéos problémati­ques. Twitter songe aussi à entourer les tweets «mensongers de manière évidente», selon les mots de son PDG Jack Dorsey, d’autres messages donnant plus de contexte, pour que les utilisateu­rs «puissent se faire leur propre opinion». La semaine dernière, les grands réseaux sociaux se sont pour la première fois retrouvés pour mieux se coordonner, pour mieux contrôler les contenus.

Personne n’aime tomber sur des contenus dangereux ou illégaux sur ses comptes de réseaux sociaux. Mais personne ne sait encore qui pourrait contrôler les contrôleur­s.

 ?? (HECTOR DE LA VALLÉE POUR LE TEMPS) ??
(HECTOR DE LA VALLÉE POUR LE TEMPS)

Newspapers in French

Newspapers from Switzerland