Sans sanctions pénales, rien ne changera durablement
des processus, notamment d’amélioration de la modération. En matière de lutte contre le cyberharcèlement, il n’est pas possible de tout inscrire dans la loi, mais on ne peut pas attendre d’évolutions des plateformes, comme des cyberharceleurs, sans que cela passe par la loi.
01NET Selon vous, donc, les réseaux sociaux n’évolueront que sous la contrainte ?
L. A. Durant mes trois années de travaux, j’ai pu voir les plateformes évoluer. Elles se sont améliorées, notamment durant la période où la future loi était en discussion et où elles essayaient de montrer patte blanche. Elles sentaient aussi une pression sociétale : les Français réclamaient la fin de l’impunité. Malheureusement, dès lors que la loi a été censurée par le Conseil constitutionnel, je n’ai pu que constater un relâchement des efforts. Les actions récentes des réseaux sociaux sur le compte de Donald Trump ne font que confirmer ce constat : c’est sous la pression populaire, parfois même des « effets de mode », que les plateformes agissent le plus. Il faut que leur action soit constante et, pour cela, que l’épée de Damoclès soit tout aussi présente : sans sanctions financières et pénales, rien ne changera durablement.
01NET Et vous préconisez des peines très lourdes en cas de dérive…
L. A. Oui, car ces entreprises ne bougent que si leurs intérêts financiers sont en jeu. On a pu le voir avec le mouvement Black Lives Matter, lorsque des annonceurs ont décidé de retirer leurs publicités de Facebook, estimant que la plateforme ne luttait pas suffisamment contre les contenus racistes. J’ai été sidérée de constater que Facebook s’est rapidement mise en conformité et a modéré les contenus, mais cela sous la pression des annonceurs, et non des lois.
01NET Estimez-vous que les plateformes doivent faire preuve de plus de transparence ?
L. A. Les plateformes échappent aujourd’hui à toute supervision : elles modèrent ce qu’elles veulent, comme elles veulent, quand elles veulent. Cela doit changer. La Commission européenne a proposé un projet de règlement, le Digital Services Act, pour imposer des obligations de transparence et de diligence aux plateformes dans leur modération, sous la supervision d’un régulateur qui pourra prononcer des sanctions jusqu’à
6 % du chiffre d’affaires mondial si elles ne mettent pas tous les moyens en oeuvre pour lutter contre la propagation des discours de haine. Ce sont ces dispositions que nous avons reprises et votées dans le chapitre « Haine en ligne » du projet de loi pour le respect des principes républicains. C’est donc sous l’impulsion de la Commission européenne que nous demandons plus de transparence en ce qui concerne les moyens financiers, humains et technologiques mis en oeuvre pour la modération. Aujourd’hui, je suis incapable de vous dire combien il y a de modérateurs chez Twitter. Pour Facebook, j’ai des informations d’échelle, mais je ne sais pas comment ils sont formés ni de quelle manière ils procèdent. Les plateformes savent présenter de façon idyllique leur activité, mais sans jamais indiquer leurs résultats, ni les délais de réponse aux signalements. Cela n’est pas normal.
01NET Exigez-vous cette même transparence concernant leurs algorithmes ?
L. A. Le secret des affaires est important. L’idée n’est donc pas de demander une transparence complète vis-à-vis du grand public. Néanmoins, nous estimons qu’un régulateur indépendant, en l’occurrence le CSA, doit pouvoir accéder aux principes qui régissent ces algorithmes, les auditer et demander leur modification si cela est nécessaire au respect des règles de droit.
01NET Êtes-vous contre l’anonymat sur internet ?
L. A. On ne se promène pas dans la rue en arborant son nom. On y est certes à visage découvert, mais c’est à la police de retrouver notre identité si l’on commet un délit. Ce doit être la même chose sur les réseaux sociaux. On doit pouvoir retrouver qui se cache derrière un pseudo. Et là encore, cela repose sur la responsabilité des plateformes, qui doivent coopérer avec les autorités de manière constante. Concrètement, on voit que dans les affaires de terrorisme ou de pédopornographie, les plateformes répondent aux autorités avec énormément de diligence, dans 98 % des cas. Mais dès qu’il s’agit de contenus haineux, le taux de réponse est inférieur à 5 %. Il ne doit pas y avoir d’aléas ou de choix des plateformes dans la coopération.