Un algorithme peut-il haïr ?
Après de longs mois de débats, la loi Avia contre les contenus haineux sur Internet a été adoptée. Le texte entrera en vigueur le 1er juillet. Son principe : les réseaux sociaux devront permettre aux internautes de signaler un contenu jugé suspect. S’il est illicite, Facebook, Twitter et consorts le feront disparaître en vingt-quatre heures, sous peine de se voir infliger une amende maximale de 4 % de leur chiffre d’affaires. Face à ce nouvel impératif, les plateformes vont recourir massivement à l’analyse algorithmique. Mais ces systèmes automatisés seront-ils capables de déterminer avec précision ce qu’est un contenu haineux ? Confrontés à des dessins, à des publications humoristiques ou provocantes, les algorithmes sauront-ils apprécier ce que des juges ont parfois du mal à appréhender ? Contrairement à l’argument avancé par ses opposants, la loi Avia ne consacre pas la justice privée. Depuis 2004 déjà, les réseaux sociaux ont, en tant qu’hébergeurs, le devoir de modérer leurs contenus dès lors qu’ils en prennent connaissance. Le texte de 2020 ne vient qu’apporter une pression supplémentaire, avant tout financière, qui aboutira à un appel toujours plus important aux algorithmes, faute de moyens humains extensibles. Pour éviter toute sanction, les réseaux sociaux auront à ratisser large avant, éventuellement, de remettre certains contenus en ligne, injustement censurés. Un volet de la loi mentionne la transparence dont devront faire preuve les plateformes, concernant l’efficacité de leurs moyens techniques et humains. Le pourcentage de contenus retirés à tort par la machine serait un remarquable indicateur de l’efficacité de leurs algorithmes. Espérons que ce chiffre soit rendu public.