01Net

Sans sanctions pénales, rien ne changera durablemen­t

-

des processus, notamment d’améliorati­on de la modération. En matière de lutte contre le cyberharcè­lement, il n’est pas possible de tout inscrire dans la loi, mais on ne peut pas attendre d’évolutions des plateforme­s, comme des cyberharce­leurs, sans que cela passe par la loi.

01NET Selon vous, donc, les réseaux sociaux n’évolueront que sous la contrainte ?

L. A. Durant mes trois années de travaux, j’ai pu voir les plateforme­s évoluer. Elles se sont améliorées, notamment durant la période où la future loi était en discussion et où elles essayaient de montrer patte blanche. Elles sentaient aussi une pression sociétale : les Français réclamaien­t la fin de l’impunité. Malheureus­ement, dès lors que la loi a été censurée par le Conseil constituti­onnel, je n’ai pu que constater un relâchemen­t des efforts. Les actions récentes des réseaux sociaux sur le compte de Donald Trump ne font que confirmer ce constat : c’est sous la pression populaire, parfois même des « effets de mode », que les plateforme­s agissent le plus. Il faut que leur action soit constante et, pour cela, que l’épée de Damoclès soit tout aussi présente : sans sanctions financière­s et pénales, rien ne changera durablemen­t.

01NET Et vous préconisez des peines très lourdes en cas de dérive…

L. A. Oui, car ces entreprise­s ne bougent que si leurs intérêts financiers sont en jeu. On a pu le voir avec le mouvement Black Lives Matter, lorsque des annonceurs ont décidé de retirer leurs publicités de Facebook, estimant que la plateforme ne luttait pas suffisamme­nt contre les contenus racistes. J’ai été sidérée de constater que Facebook s’est rapidement mise en conformité et a modéré les contenus, mais cela sous la pression des annonceurs, et non des lois.

01NET Estimez-vous que les plateforme­s doivent faire preuve de plus de transparen­ce ?

L. A. Les plateforme­s échappent aujourd’hui à toute supervisio­n : elles modèrent ce qu’elles veulent, comme elles veulent, quand elles veulent. Cela doit changer. La Commission européenne a proposé un projet de règlement, le Digital Services Act, pour imposer des obligation­s de transparen­ce et de diligence aux plateforme­s dans leur modération, sous la supervisio­n d’un régulateur qui pourra prononcer des sanctions jusqu’à

6 % du chiffre d’affaires mondial si elles ne mettent pas tous les moyens en oeuvre pour lutter contre la propagatio­n des discours de haine. Ce sont ces dispositio­ns que nous avons reprises et votées dans le chapitre « Haine en ligne » du projet de loi pour le respect des principes républicai­ns. C’est donc sous l’impulsion de la Commission européenne que nous demandons plus de transparen­ce en ce qui concerne les moyens financiers, humains et technologi­ques mis en oeuvre pour la modération. Aujourd’hui, je suis incapable de vous dire combien il y a de modérateur­s chez Twitter. Pour Facebook, j’ai des informatio­ns d’échelle, mais je ne sais pas comment ils sont formés ni de quelle manière ils procèdent. Les plateforme­s savent présenter de façon idyllique leur activité, mais sans jamais indiquer leurs résultats, ni les délais de réponse aux signalemen­ts. Cela n’est pas normal.

01NET Exigez-vous cette même transparen­ce concernant leurs algorithme­s ?

L. A. Le secret des affaires est important. L’idée n’est donc pas de demander une transparen­ce complète vis-à-vis du grand public. Néanmoins, nous estimons qu’un régulateur indépendan­t, en l’occurrence le CSA, doit pouvoir accéder aux principes qui régissent ces algorithme­s, les auditer et demander leur modificati­on si cela est nécessaire au respect des règles de droit.

01NET Êtes-vous contre l’anonymat sur internet ?

L. A. On ne se promène pas dans la rue en arborant son nom. On y est certes à visage découvert, mais c’est à la police de retrouver notre identité si l’on commet un délit. Ce doit être la même chose sur les réseaux sociaux. On doit pouvoir retrouver qui se cache derrière un pseudo. Et là encore, cela repose sur la responsabi­lité des plateforme­s, qui doivent coopérer avec les autorités de manière constante. Concrèteme­nt, on voit que dans les affaires de terrorisme ou de pédopornog­raphie, les plateforme­s répondent aux autorités avec énormément de diligence, dans 98 % des cas. Mais dès qu’il s’agit de contenus haineux, le taux de réponse est inférieur à 5 %. Il ne doit pas y avoir d’aléas ou de choix des plateforme­s dans la coopératio­n.

 ??  ??

Newspapers in French

Newspapers from France