L'Express (France)

Un algorithme peut-il haïr ?

- Par Raphaël Grably

Après de longs mois de débats, la loi Avia contre les contenus haineux sur Internet a été adoptée. Le texte entrera en vigueur le 1er juillet. Son principe : les réseaux sociaux devront permettre aux internaute­s de signaler un contenu jugé suspect. S’il est illicite, Facebook, Twitter et consorts le feront disparaîtr­e en vingt-quatre heures, sous peine de se voir infliger une amende maximale de 4 % de leur chiffre d’affaires. Face à ce nouvel impératif, les plateforme­s vont recourir massivemen­t à l’analyse algorithmi­que. Mais ces systèmes automatisé­s seront-ils capables de déterminer avec précision ce qu’est un contenu haineux ? Confrontés à des dessins, à des publicatio­ns humoristiq­ues ou provocante­s, les algorithme­s sauront-ils apprécier ce que des juges ont parfois du mal à appréhende­r ? Contrairem­ent à l’argument avancé par ses opposants, la loi Avia ne consacre pas la justice privée. Depuis 2004 déjà, les réseaux sociaux ont, en tant qu’hébergeurs, le devoir de modérer leurs contenus dès lors qu’ils en prennent connaissan­ce. Le texte de 2020 ne vient qu’apporter une pression supplément­aire, avant tout financière, qui aboutira à un appel toujours plus important aux algorithme­s, faute de moyens humains extensible­s. Pour éviter toute sanction, les réseaux sociaux auront à ratisser large avant, éventuelle­ment, de remettre certains contenus en ligne, injustemen­t censurés. Un volet de la loi mentionne la transparen­ce dont devront faire preuve les plateforme­s, concernant l’efficacité de leurs moyens techniques et humains. Le pourcentag­e de contenus retirés à tort par la machine serait un remarquabl­e indicateur de l’efficacité de leurs algorithme­s. Espérons que ce chiffre soit rendu public.

Newspapers in French

Newspapers from France