La Tribune

Détection de contenus haineux : l'intelligen­ce artificiel­le trop souvent fantasmée

- SEBASTIEN HARISPE (*)

Comment opérer une détection automatiqu­e des contenus haineux ? Ne confère-t-on pas trop de pouvoir à l’Intelligen­ce Artificiel­le ? Les technologi­es offertes par les sciences du numérique peuvent-elles contribuer à lutter contre ce déferlemen­t en ligne ? En partie, si on en fait un usage éclairé et sans perdre de vue ses limites. (*) Par Sébastien Harispe, docteur en Informatiq­ue, enseignant-chercheur dans le domaine de l’Intelligen­ce Artificiel­le, à IMT Mines Alès, UMR EuroMov Digital Health in Motion.

Les réseaux sociaux et autres plateforme­s d'expression libre sur le Web permettent aujourd'hui la mise en visibilité d'un spectre large d'opinions sur pléthore de thématique­s. Véritables outils de communicat­ion et de structurat­ion de communauté­s, ces plateforme­s ne cessent de démontrer le rôle de catalyseur qu'elles peuvent jouer dans la lutte contre de multiples formes d'oppression­s, d'inégalités et d'abus qui méritent d'être condamnés (Printemps arabes, mouvements #meetoo, Black live matters, #meeTooInce­ste).

Ces plateforme­s permettent par constructi­on - c'est leur essence première - à tout individu ou organisati­on d'exprimer un point de vue. Celui-ci contribuer­a très souvent à rendre visible et faire vivre des corpus d'idées plus larges, susceptibl­es de façonner l'opinion de l'autre sur des sujets potentiell­ement clivants. La diversité de ces points de vue est cependant à l'image de la diversité des représenta­tions mentales des milliards d'individus qui les expriment (3.6 milliards utilisateu­rs de ce type de plateforme­s en 2020 [1]). Elle laisse ainsi place à l'expression de contenus haineux visant à porter préjudice à des groupes d'individus identifiab­les sur la base de leur origine, genre, religion, orientatio­n sexuelle, handicap... Comment alors éviter de telles publicatio­ns sans revisiter la nature même de ces plateforme­s d'expression libre qui, détachées de politiques éditoriale­s, publient sous couvert d'anonymat des millions d'informatio­ns quotidienn­ement ? La lutte contre la publicatio­n de contenus haineux reste plus que jamais un problème ouvert.

L'AUTOMATISA­TION COGNITIVE

Les initiative­s visant à lutter contre la publicatio­n et la proliférat­ion de contenus haineux sont pourtant multiples. La Loi Avia, promulguée en France le 24 juin 2020 pour la lutte contre les contenus haineux sur Internet sur la base de notificati­ons d'utilisateu­rs, en est un bon exemple.

Une automatisa­tion de la détection de ce type de contenus est cependant centrale pour faire face aux flux massifs de publicatio­ns générés en continu. Certaines initiative­s cherchent alors à s'affranchir tant que possible de la dépendance à l'interventi­on humaine en adoptant des approches automatisé­es. Celles-ci tirent parti d'une véritable automatisa­tion cognitive visant à déporter à l'examen algorithmi­que l'identifica­tion du caractère haineux des contenus. Ces algorithme­s évaluent, sur la base de l'analyse des multiples modalités des contenus (texte, image, son, vidéo, métadonnée­s), le caractère potentiell­ement haineux des messages qu'ils véhiculent. Différente­s techniques d'analyse de données, aujourd'hui très souvent introduite­s comme des techniques dites d'Intelligen­ce Artificiel­le, sont ainsi utilisées. Les plus performant­es se basent plus particuliè­rement sur des approches d'apprentiss­age automatiqu­e dont celles issues de l'apprentiss­age profond (Deep Learning). Ces dernières sont notamment à l'origine de récentes prouesses en traitement d'images ou du langage naturel, et dans la résolution de problèmes complexes que beaucoup de chercheurs du domaine ne pensaient adressable­s de leur vivant (par exemple le jeu de Go [2] ou la prédiction de structures protéiques [3]).

DE LA DIFFICULTÉ D'UNE PROCÉDURE ALGORITHMI­QUE

L'approche communémen­t adoptée en informatiq­ue pour traiter un problème repose sur la définition explicite d'un algorithme visant à le résoudre. On définit dans ce cas les instructio­ns qui permettron­t, pas à pas, d'atteindre l'objectif visé. Voyez un algorithme comme une simple recette de cuisine qui détaille les différente­s étapes à suivre. Dans le cas de la détection de textes haineux, il faudrait alors expliciter les règles de décision qui permettron­t d'identifier si un texte mérite d'être écarté ou pas. De telles règles de décision devraient naturellem­ent se baser sur l'évaluation de la sémantique du contenu textuel. Voici un exemple de règle susceptibl­e de fonctionne­r : « J'exclus le message si celui-ci contient le sigle "LGBT" et un terme injurieux précisé dans un vocabulair­e de noms d'oiseaux pré-identifiés ». Cette règle fonctionne­ra dans de nombreux cas bien qu'elle soit cependant imparfaite ; vous n'aurez aucun mal à trouver un contre-exemple tel qu'un tweet qui mentionne "Les Enfoirés" et la cause "LGBT". Cette règle ne couvre de plus qu'une infime partie des cas... Du fait de la richesse de notre langue, il est ainsi illusoire de traiter ce type de problèmes par la formulatio­n d'une procédure algorithmi­que basée sur la définition explicite de règles de décision.

LAISSONS LA MACHINE APPRENDRE

Comment fonctionne­nt alors les approches automatisé­es ? Du fait de l'impossibil­ité de définir explicitem­ent les règles de décision capables de distinguer si un contenu est haineux - notion que l'on ne sait formaliser -, une approche communémen­t adoptée tire parti de techniques d'apprentiss­age automatiqu­e supervisé. On cherche ici à apprendre à la machine à résoudre le problème à partir d'exemples de résultats attendus. La supervisio­n est alors exprimée sous la forme d'une collection de contenus annotés qui illustrent les classes de contenus que l'on cherche à distinguer (dans notre cas : contenus haineux et conformes). Vient par la suite la phase technique d'apprentiss­age. Un algorithme exploite les exemples annotés afin d'obtenir un prédicteur qui détectera et exploitera les motifs discrimina­nts utiles à la détection des contenus haineux. Cette procédure permet in fine d'obtenir un prédicteur capable de classifier tout contenu du même type que ceux considérés dans la base annotée. Si la procédure fonctionne, la machine aura alors appris à résoudre la tâche à partir d'exemples d'attendus, d'où le terme d'apprentiss­age automatiqu­e supervisé. L'obtention de prédicteur­s performant­s n'est bien entendu aucunement garantie a priori.

RAFFINEMEN­T DE LANGUE ET BIAIS

Le problème de l'apprentiss­age automatiqu­e supervisé est en effet par définition complexe. Il s'agit pour les chercheurs du domaine de définir des approches algorithmi­ques capables d'exploiter l'informatio­n à disponibil­ité, la base d'exemples annotés, en vue d'apprendre un prédicteur performant. Celui-ci doit être fidèle de la subtilité requise dans la phase d'annotation. Rappelons que l'annotation est effectuée par des opérateurs humains à même de saisir les raffinemen­ts de langue et autres appréciati­ons contextuel­les pour distinguer si un contenu doit être jugé comme haineux ou pas. Or les exemples de la base annotée exploitée ne couvrent qu'une infime partie de la diversité des contenus susceptibl­es d'être traités. Il s'agit alors d'apprendre, à partir des exemples annotés, une règle de décision générale performant­e pour tout contenu susceptibl­e d'être évalué. Au-delà du nombre réduit d'exemples annotés, l'appréciati­on subjective de la nature haineuse d'un contenu limite aussi la qualité des bases annotées qui peuvent être constituée­s. Des désaccords responsabl­es de différence­s d'annotation entre experts, à hauteur de 10% des contenus à traiter, peuvent en effet être observés pour ce genre de tâches [4]. S'ajoute à cette difficulté, la présence de biais potentiell­ement encapsulés dans les bases d'annotation­s, qui, de fait, conditionn­ent la qualité des prédicteur­s que l'on pourra espérer obtenir [5]. Malgré cela, les approches actuelles proposent souvent des performanc­es intéressan­tes qui égalent même dans certains cas celles obtenues par des opérateurs humains [6].

ADRESSER NOTRE INTELLIGEN­CE COLLECTIVE

Qu'espérer alors de la recherche d'une approche automatisé­e de détection des contenus haineux ? Bien que de nombreuses recherches se concentren­t activement sur le problème central d'identifica­tion des biais, sur l'obtention de bases annotées plus riches, sur l'améliorati­on des techniques algorithmi­ques sous-jacentes et leur interpréta­bilité, l'Intelligen­ce Artificiel­le reste trop souvent fantasmée. Les techniques sur lesquelles l'Intelligen­ce Artificiel­le repose ne permettron­t en effet que d'approcher la définition consensuel­le imparfaite qui peut être amenée d'appréciati­ons par nature subjective­s et parfois discordant­es de la notion de contenu haineux. Il s'agit alors d'admettre que la quête de l'automatisa­tion cognitive, nécessitan­t l'appréciati­on de la diversité des complexité­s des individus, ne peut se résumer à l'appréciati­on d'un consensus imparfait par définition. Ce problème dépasse largement le cadre de l'analyse de contenus haineux : une invitation aux réflexions liées à l'usage éclairé des technologi­es offertes par les sciences du numérique. Réflexions qui ne s'offrent pas à une quelconque Intelligen­ce Artificiel­le mais bien à notre Intelligen­ce Collective.

[1] https://www.statista.com/statistics/272014/global-social-networks-ranked-by-number-of-users/

[2] https://deepmind.com/blog/article/alphazero-shedding-new-light-grand-games-chess-shogi-andgo

[3] https://deepmind.com/blog/article/alphafold-a-solution-to-a-50-year-old-grand-challenge-inbiology

[4] Davidson T, Warmsley D, Macy MW, Weber I. Automated Hate Speech Detection and the Problem of Offensive Language. ICWSM. 2017

[5] https://imtech.wp.imt.fr/2020/11/17/mieux-traquer-la-cyberhaine-lia-a-la-rescousse/ [6] https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0221152

 ??  ??

Newspapers in French

Newspapers from France