La modération selon Facebook
Chez Facebook – plus de deux milliards d’inscrits –, on appelle ça les Standards de la communauté (bit.ly/2ZqPrwQ). Objectif de cette charte qui s’applique dans le monde entier, sans distinction selon les pays : encourager l’expression des internautes et créer un environnement sûr. Violence, nudité, cruauté… Le texte liste de façon stricte une série de thèmes interdits, et pose parfois des exceptions floues rendant toute interprétation possible. Ainsi, un message contrevenant au règlement peut être autorisé « à condition qu’il soit pertinent ou significatif pour le débat public ».
Pour juger de ce qui est permis ou pas, Facebook s’appuie sur
15 000 modérateurs internes. Répartis dans une vingtaine de pays, ils couvrent plus de 50 langues. En sus de cette petite armée dévouée, la société externalise une partie de sa mission à des multinationales comme Accenture ou Cognizant. Qu’ils soient hors les murs ou pas, ces modérateurs sont assistés par des logiciels dont la proactivité – c’est-à-dire le pourcentage de contenus modérés automatiquement avant d’être signalés par quiconque – augmente régulièrement. Ainsi, en matière de discours haineux, Facebook annonce qu’elle est passée de 24 % il y a un peu plus d’un an à 65 % aujourd’hui. C’est à propos de propagande terroriste, de nudité et d’activité sexuelle d’adultes et d’enfants, mais aussi en matière de repérage de faux comptes que ses algorithmes obtiennent les meilleurs résultats, avec une proactivité atteignant 95 %. A contrario, ceux-ci s’avèrent beaucoup moins performants concernant les actes d’intimidation et de harcèlement, avec seulement 21 % de taux de reconnaissance.