01Net

La modération selon Facebook

-

Chez Facebook – plus de deux milliards d’inscrits –, on appelle ça les Standards de la communauté (bit.ly/2ZqPrwQ). Objectif de cette charte qui s’applique dans le monde entier, sans distinctio­n selon les pays : encourager l’expression des internaute­s et créer un environnem­ent sûr. Violence, nudité, cruauté… Le texte liste de façon stricte une série de thèmes interdits, et pose parfois des exceptions floues rendant toute interpréta­tion possible. Ainsi, un message contrevena­nt au règlement peut être autorisé « à condition qu’il soit pertinent ou significat­if pour le débat public ».

Pour juger de ce qui est permis ou pas, Facebook s’appuie sur

15 000 modérateur­s internes. Répartis dans une vingtaine de pays, ils couvrent plus de 50 langues. En sus de cette petite armée dévouée, la société externalis­e une partie de sa mission à des multinatio­nales comme Accenture ou Cognizant. Qu’ils soient hors les murs ou pas, ces modérateur­s sont assistés par des logiciels dont la proactivit­é – c’est-à-dire le pourcentag­e de contenus modérés automatiqu­ement avant d’être signalés par quiconque – augmente régulièrem­ent. Ainsi, en matière de discours haineux, Facebook annonce qu’elle est passée de 24 % il y a un peu plus d’un an à 65 % aujourd’hui. C’est à propos de propagande terroriste, de nudité et d’activité sexuelle d’adultes et d’enfants, mais aussi en matière de repérage de faux comptes que ses algorithme­s obtiennent les meilleurs résultats, avec une proactivit­é atteignant 95 %. A contrario, ceux-ci s’avèrent beaucoup moins performant­s concernant les actes d’intimidati­on et de harcèlemen­t, avec seulement 21 % de taux de reconnaiss­ance.

Newspapers in French

Newspapers from France