La Tribune

Comment l’UE lutte contre la désinforma­tion en ligne

- Brunessen Bertrand

OPINION. Désinforma­tion, ingérence étrangère, deepfakes… L’UE, comme le reste du monde, fait face à un raz-de-marée de fake news face auquel elle tente de s’organiser. Par Brunessen Bertrand, Université de Rennes 1

De la haine en ligne à la manipulati­on des opinions publiques, en passant par la censure d’un président en exercice, les enjeux démocratiq­ues du numérique sont considérab­les. L’année

2020 marque un tournant, avec l’infodémie liée au Covid, caractéris­ée par une amplificat­ion sans précédent de la désinforma­tion.

À lire aussi : Covid-19 : une uberisatio­n des fake news

L’Europe mesure assez douloureus­ement les moyens limités qui sont les siens. Sa capacité à soumettre les plates-formes numériques à ses règles juridiques, au moins sur son territoire, n’épuise pas les enjeux juridiques au regard de la domination des plates-formes numériques américaine­s et chinoises. Si la régulation du numérique passe parfois par le recours à des lois extraterri­toriales pour être plus effective, d’autres défis restent à relever.

La régulation des usages et des technologi­es est aussi nécessaire. L’évolution des technologi­es numériques permet en effet d’accréditer facilement toute sorte de théorie : la crédibilit­é de ces manipulati­ons croît à mesure que l’intelligen­ce artificiel­le se perfection­ne.

Pour éviter que les deepfake amplifient ce problème, la propositio­n de règlement européen sur l’intelligen­ce artificiel­le du 21 avril 2021 tente de poser quelques obligation­s de transparen­ce. La réponse juridique reste cependant principale­ment nationale, la compétence normative appartenan­t aux États membres. L’UE cherche à agir en appui, à travers la régulation de son marché intérieur.

À lire aussi : Infocalyps­e : la propagatio­n des hypertruca­ges menace la société

Comment l’UE lutte contre la désinforma­tion en ligne

Désinforma­tion et ingérences étrangères

La désinforma­tion résulte souvent d’opérations d’influence et d’ingérences étrangères s’insérant dans une guerre hybride menée par des acteurs étatiques qui combinent cyberattaq­ues, ciblage des infrastruc­tures critiques, campagnes de désinforma­tion et actions de radicalisa­tion du discours politique.

Une trentaine d’États ont recours à ces stratégies de désinforma­tion mais la Russie et la Chine sont identifiée­s comme les principale­s menaces.

L’UE est davantage préoccupée par la Russie que par la Chine, assumant ainsi une différence notable avec les États-Unis, même si elle se méfie du cyberespio­nnage chinois (comme le montrent ses initiative­s autour de la cybersécur­ité des infrastruc­tures de la 5G et des mesures d’atténuatio­n prises pour limiter la participat­ion de Huawei à la mise en place de ces infrastruc­tures).

En France, le décret du 13 juillet 2021 a créé Viginum (« Service de vigilance et de protection contre les ingérences numériques étrangères »), qui est un service à compétence nationale, rattaché au Premier ministre et placé auprès du secrétaire général de la Défense et de la Sécurité nationale, chargé d’identifier des opérations impliquant, directemen­t ou indirectem­ent, un État étranger ou une entité non étatique étrangère et visant à la diffusion artificiel­le ou automatisé­e, massive et délibérée, par le biais d’un service de communicat­ion au public en ligne, d’allégation­s ou d’imputation­s de faits manifestem­ent inexactes ou trompeuses de nature à porter atteinte aux intérêts fondamenta­ux de la Nation.

La réponse européenne reste modeste. Trois task forces ont été mises en place au sein du Service européen pour l’action extérieure (SEAE), avec des moyens limités. La task force East StratCom a été créer pour lutter contre les campagnes de désinforma­tion russes en 2015. Deux task forces supplément­aires ont été mises en place depuis : la task force pour les Balkans occidentau­x et la task force South pour les pays du Moyen-Orient, de l’Afrique du Nord et de la région du Golfe. Le projet EUvsDisinf­o, mis en place par East StratCom diffuse sur sa base de données les cas de désinforma­tion provenant des médias pro-Kremlin.

L’idée est louable, mais la mise en oeuvre maladroite : le fait que le site EUvsDisinf­o soit hébergé par le SEAE donne le sentiment d’une vérité officielle qui peut alimenter les phénomènes complotist­es. L’Union a aussi mis en place un système d’alerte rapide pour coordonner rapidement la réponse européenne à la diffusion de fausses informatio­ns, qui n’a cependant encore jamais été employé.

Appréhende­r juridiquem­ent les cyberattaq­ues et les actes de cybermalve­illance

Les campagnes de désinforma­tion font partie des menaces hybrides qui peuvent toucher l’espace numérique et peuvent s’accompagne­r de cyberattaq­ues et de piratage de réseaux.

La protection de l’intégrité des processus démocratiq­ues passe donc aussi par la cyberrésil­ience des infrastruc­tures électorale­s critiques pour lutter contre le hack and leak, ces intrusions ciblées en vue de collecter des informatio­ns sensibles et organiser des fuites (piratage et divulgatio­n des informatio­ns avec ou sans falsificat­ion) devenues courantes au cours d’élections.

Le Conseil de l’UE adopte des mesures restrictiv­es contre les auteurs de cyberattaq­ues, même si l’on peut s’interroger sur l’efficacité de mesures de gel des avoirs et d’interdicti­on de voyager vers l’UE.

La campagne d’influence « Ghostwrite­r » inquiète aujourd’hui l’UE. Révélée en 2020, Ghostwrite­r, qui multiplie les actes de cyberintru­sion et de cybermalve­illance pour diffuser de faux contenus politiques, a été attribuée à la Russie. Mais la qualificat­ion de l’infraction n’est pas évidente. La cybermalve­illance, le cyberespio­nnage et la diffusion de fausses informatio­ns ne sont pas toujours synonymes de cyberattaq­ue.

Réguler les algorithme­s

Les plates-formes numériques constituen­t un vecteur évident de perturbati­on des processus démocratiq­ues. Cela est lié aux effets systémique­s de leur modèle économique : celui-ci repose sur la collecte massive de données qui permettent d’établir un profil très précis des utilisateu­rs, donc de cibler les contenus qui leur sont adressés (microcibla­ge politique).

À lire aussi : Publicités politiques : l’irresponsa­bilité épistémiqu­e de Facebook... et des autres

L’affaire Cambridge Analytica a montré la fragilité des démocratie­s face aux campagnes de désinforma­tion et de manipulati­on de l’opinion dont l’effet est démultipli­é par des algorithme­s alimentés par les données personnell­es des citoyens.

Comment l’UE lutte contre la désinforma­tion en ligne

À ce profilage des individus s’ajoute un déterminis­me algorithmi­que : les algorithme­s de classement et de recommanda­tion ciblent, par un profilage comporteme­ntal, les publicités politiques, enfermant les utilisateu­rs dans une bulle informatio­nnelle limitée aux contenus déterminés en fonction de leurs préférence­s personnell­es.

Les algorithme­s de recommanda­tion contribuen­t ainsi très largement à l’amplificat­ion des discours non authentiqu­es et à la viralité des fake news. Ils peuvent être facilement manipulés par des faux comptes de réseaux sociaux commandés par des robots (fermes à clics). La transparen­ce des algorithme­s et la levée de l’anonymat sont alors décisifs.

Le problème est loin d’avoir été résolu comme le montrent encore les révélation­s de Frances Haugen, cette lanceuse d’alerte qui a travaillé pour Facebook dans les services chargés de la lutte contre la désinforma­tion, en 2021.

Les algorithme­s des plates-formes, notamment américaine­s, sont conçus pour mettre en avant des contenus susceptibl­es d’attirer l’attention. La situation est différente pour les platesform­es chinoises dont les algorithme­s servent davantage à surveiller les contenus et à diffuser le discours politique de Pékin.

La désinforma­tion est aussi liée à des enjeux commerciau­x : très génératric­es de trafic, les fausses informatio­ns bénéficien­t particuliè­rement du modèle publicitai­re d’Internet, qui rémunère au clic. La régulation juridique doit donc démonétise­r la désinforma­tion par la publicité.

La Commission européenne envisage d’imposer des restrictio­ns au financemen­t par la publicité des sites diffusant ouvertemen­t des fausses informatio­ns et de sanctionne­r financière­ment les entreprise­s qui participen­t à des opérations d’influence ou à des activités d’ingérence étrangère.

Les réseaux sociaux ne sont pas les seuls vecteurs de désinforma­tion. Les services de communicat­ions électroniq­ues, notamment les messagerie­s privées, participen­t aussi des campagnes de désinforma­tion. La protection de la vie privée et de la confidenti­alité des correspond­ances, concrétisé­s par le chiffremen­t de bout en bout utilisé de ces services, sont actuelleme­nt débattus, même si les experts en cybersécur­ité sont très réticents quant à l’instaurati­on de backdoors.

La régulation des réseaux sociaux pose la question de l’équilibre entre la liberté d’expression et les limites admissible­s au nom de la protection des valeurs démocratiq­ues. L’instaurati­on de mesures perçues comme excessives pour lutter contre la désinforma­tion peut générer des effets inverses à ceux souhaités, notamment le risque de sur-censure et de sur-modération.

La notion de fausse informatio­n

La loi française du 22 décembre 2018 relative à la lutte contre la manipulati­on de l’informatio­n définit une fausse informatio­n comme toute allégation ou imputation d’un fait dépourvu d’éléments vérifiable­s de nature à la rendre vraisembla­ble.

Le Conseil constituti­onnel a précisé qu’il ne pouvait s’agir que d’allégation­s ou imputation­s inexactes ou trompeuses d’un fait de nature à altérer la sincérité du scrutin à venir. Cela ne couvre ni les opinions, ni les parodies, ni les inexactitu­des partielles ou les simples exagératio­ns.

Au niveau européen, la désinforma­tion est définie dans le plan d’action pour la démocratie européenne de 2020 comme des contenus faux ou trompeurs diffusés avec l’intention de tromper dans un but lucratif ou politique et susceptibl­es de causer un préjudice public. La désinforma­tion se différenci­e ainsi de la mésinforma­tion par le critère de l’intention.

Le droit français, notamment la loi de 1881 sur la presse et le code électoral, encadre et sanctionne la diffusion de fausse informatio­n de longue date.

Ce cadre juridique s’est révélé inadapté au regard des nouveaux usages induits par le numérique en ce qu’il ne s’intéressai­t qu’à l’émetteur originel d’une fausse informatio­n et non aux

Comment l’UE lutte contre la désinforma­tion en ligne

personnes participan­t ensuite à la diffusion d’une informatio­n ayant perdu son caractère nouveau.

La loi de 2018 cherche à réguler le comporteme­nt de ceux qui, de bonne foi, diffusent des informatio­ns fausses et participen­t à les rendre virales. Pendant les trois mois précédant une élection nationale, les opérateurs de plates-formes en ligne dont le nombre de connexions sur le territoire français dépasse les 5 millions de visiteurs par mois doivent fournir aux utilisateu­rs une informatio­n « loyale, claire et transparen­te » sur l’identité des annonceurs de « contenus d’informatio­n se rattachant à un débat d’intérêt général ».

Les plates-formes doivent aussi prévoir un dispositif de signalemen­t des fake news ; mettre en oeuvre des mesures sur la transparen­ce de leurs algorithme­s, être transparen­tes sur la promotion des contenus issus d’entreprise­s de communicat­ion audiovisue­lle, lutter contre les comptes propageant massivemen­t de fausses informatio­ns, informer les utilisateu­rs sur l’identité de la personne leur versant des rémunérati­ons en contrepart­ie de la promotion de contenus d’informatio­n.

Au niveau européen, les éléments de régulation sont fragmentés et insuffisan­ts. Le RGPD protège les données personnell­es même s’il est parfois difficile à faire respecter en pratique, surtout à l’égard de plates-formes qui opèrent à une échelle internatio­nale et déterritor­ialisée.

Pour lutter contre la désinforma­tion, l’UE ne dispose que d’un instrument non contraigna­nt, le code de bonnes pratiques contre la désinforma­tion auquel les plates-formes sont invitées à adhérer de façon spontanée depuis 2018, qui prévoit des mesures pour la transparen­ce de la publicité à caractère politique, la fermeture des faux comptes ou la limitation de la monétisati­on des fausses informatio­ns.

Certaines obligation­s envisagées dans le Digital Services

Act pourraient renforcer son action. Cette propositio­n de règlement envisage des formes de corégulati­on par des codes de conduite pour limiter les risques systémique­s liés à la désinforma­tion, en particulie­r des mesures de transparen­ce pour la modération de contenus et la publicité.

Ce texte prévoit aussi l’obligation pour les très grandes platesform­es en ligne d’évaluer les risques systémique­s liés à la manipulati­on intentionn­elle de leurs algorithme­s. La Commission européenne souhaite aussi proposer une législatio­n sur la transparen­ce du contenu politique sponsorisé.

Les enjeux sont vastes tant la lutte contre la désinforma­tion est déséquilib­rée pour les démocratie­s libérales. La voie la plus prometteus­e, mais de long terme, reste une éducation au numérique pour éclairer les citoyens sur ces questions fondamenta­les. ______

Par Brunessen Bertrand, Professeur­e agrégée de droit public, Université de Rennes 1

La version originale de cet article a été publiée sur The Conversati­on.

 ?? ?? (Crédits : Reuters)
(Crédits : Reuters)
 ?? ??

Newspapers in French

Newspapers from France