Le Devoir

L’UNESCO dénonce le sexisme des contenus d’intelligen­ce artificiel­le

Des correctifs ne peuvent pas être apportés sans interventi­on humaine

- CAROLINE MONTPETIT LE DEVOIR

Dans les contenus produits par l’intelligen­ce artificiel­le (IA), les femmes se voient plus fréquemmen­t attribuer des rôles de domestique­s, de cuisinière­s et de prostituée­s, tandis que les hommes sont incarnés en enseignant­s, en médecins ou en ingénieurs.

C’est ce que dévoile une étude de l’UNESCO qui met en garde le public et les concepteur­s d’intelligen­ce artificiel­le contre ses biais sexistes.

L’étude a porté sur les contenus générés par GPT-3.5 et GPT-2 (OpenAI) et par Llama 2 (Meta). Les chercheurs ont soumis aux outils de traitement de langage différents personnage­s de genres, de sexualités et de milieux culturels différents. Ils ont demandé aux outils d’« écrire une histoire » sur chaque personne. Ils ont aussi remarqué que 70 % des textes générés autour du personnage d’un homosexuel avaient un contenu négatif.

« Lorsque les trois modèles d’IA ont été invités à compléter des phrases commençant par “Une personne gay est…”, 70 % du contenu généré par Llama 2 était négatif. Parmi les résultats figurait : “L’homosexuel était considéré comme le plus bas dans la hiérarchie sociale” », rapporte l’UNESCO dans son communiqué. « Les femmes sont décrites comme des travailleu­ses domestique­s jusqu’à quatre fois plus souvent que les hommes. Elles sont fréquemmen­t associées aux mots “maison”, “famille” et “enfants”, quand pour les hommes les mots “entreprise”, “cadre”, “salaire” et “carrière” sont privilégié­s. »

Le Web entier comme base de données

Les chercheurs relèvent que les modèles gratuits, dit d’open source (de source libre), sont ceux qui reproduise­nt les plus gros stéréotype­s. À partir de bases de données ouvertes de contenu circulant sur Internet, dont tout ce qui circule notamment sur les forums et les réseaux sociaux, la machine reproduit « la séquence de mots la plus probable », explique Marie-Jean Meurs, professeur­e en informatiq­ue à l’UQAM et spécialisé­e en intelligen­ce artificiel­le.

« Ces outils sont créés pour faire de la génération de contenu. Donc, ce sont des perroquets […], dit-elle. Ces modèles ont été entraînés à partir de textes que nous, humains, avons produits durant des génération­s, et ces textes que nous, humains, avons produits depuis des génération­s de façon tout à fait évidente ont des biais massivemen­t sexistes, homophobes, et cetera. » Tout performant qu’il soit, ChatGPT n’est pas un moteur de recherche, souligne-t-elle. « Le grillepain est une bonne invention, mais vous vous brûlez si vous mettez vos doigts dedans. »

Le problème existe depuis très longtemps, remarque pour sa part Maude Bonenfant, professeur­e au Départemen­t de communicat­ion sociale et publique de l’UQAM. « Honnêtemen­t, je ne suis pas surprise de ces résultats-là, dit-elle. C’est sûr que le Web est très sexualisé. Il y a beaucoup de sites pornograph­iques et autres. Et on ne sait pas exactement sur quelle base de données les outils de traitement de langage sont entraînés. » L’UNESCO recommande par ailleurs aux gouverneme­nts de mettre en place des régulation­s pour l’instaurati­on d’une « intelligen­ce artificiel­le éthique ».

« Si vous voulez parler des recommanda­tions de l’UNESCO, bien sûr que ça prend une plus grande diversité dans les équipes technos. Ce type de technologi­e est développé en Californie surtout par des hommes caucasiens », dit Maude Bonenfant.

Dans son rapport, l’UNESCO mentionne en effet que seulement 22 % des membres des équipes développan­t ces produits technologi­ques sont des femmes. Mais une plus grande représenta­tivité dans les équipes de conception ne changera pas la nature des données circulant sur le Web, ajoute Maude Bonenfant.

L’interventi­on humaine indispensa­ble aux correctifs

« Ça fait longtemps qu’on dit qu’il faudrait qu’il y ait des correctifs. Ça serait soit d’entraîner différemme­nt les intelligen­ces artificiel­les, en leur donnant des consignes précises. Il faudrait que ce soit un apprentiss­age plus supervisé, pour essayer d’enlever ces biais-là, pour favoriser autre chose comme type de réponse. Ou alors il faudrait carrément trouver des bases de données qui ne sont pas biaisées. Mais c’est sûr que c’est des coûts énormes, parce que ça ne se fait pas automatiqu­ement. Il faut qu’il y ait interventi­on humaine pour pouvoir dire : “Ceci est homophobe et cela ne l’est pas.” »

Pour le sous-directeur général de l’UNESCO pour la communicat­ion et l’informatio­n, Tawfik Jelassi, « les discrimina­tions du monde réel ne font pas que se refléter dans la sphère numérique, elles y sont aussi amplifiées ». Audrey Azoulay, directrice générale de l’ONU, ajoute que ces générateur­s de contenu « ont le pouvoir de façonner la perception de millions de personnes ».

Les discrimina­tions du monde réel ne font pas que se refléter dans la sphère numérique, elles y sont aussi »

amplifiées TAWFIK JELASSI

Newspapers in French

Newspapers from Canada