Le Devoir

Les hommes en complet, les femmes en bikini

- POINT DE VUE Pierre Chastenay

L’auteur est astronome, auteur, communicat­eur scientifiq­ue et professeur de didactique des sciences à l’UQAM.

On apprenait récemment dans Le Devoir que Clearview AI, une société américaine qui a mis au point une technologi­e controvers­ée de reconnaiss­ance faciale basée sur des algorithme­s d’intelligen­ce artificiel­le, avait exercé une « surveillan­ce de masse » illégale au Canada, violant ainsi la vie privée de nombreux citoyens à travers le pays. Cette nouvelle est tombée au moment où, fin janvier, deux chercheurs des université­s Carnegie Mellon et George-Washington, aux États-Unis, publiaient les résultats d’une expérience troublante au cours de laquelle ils ont utilisé deux programmes informatiq­ues, eux aussi basés sur des algorithme­s d’intelligen­ce artificiel­le, pour générer des images à partir d’une photo tronquée.

Ainsi, dans le cas où la photo tronquée montrait la tête d’un homme, le programme a généré un corps vêtu d’un complet (pantalon, veston et cravate) dans 43 % des cas. Mais si la photo montrait la tête d’une femme, dans 53 % des cas, le corps généré n’était vêtu que d’un simple bikini. Même en utilisant une photo montrant la tête pourtant bien connue de la représenta­nte étasunienn­e Alexandria Ocasio-Cortez (AOC), celle-ci s’est automatiqu­ement retrouvée courtement vêtue… En passant, ne cherchez pas cette image sur le Web ; par souci d’éthique, les chercheurs n’ont pas publié le photomonta­ge en question dans leur article. On devine l’usage qu’en auraient fait les adversaire­s politiques d’AOC…

Comment fonctionne­nt, au juste, ces algorithme­s de génération d’images ? Leur approche est basée sur celle des générateur­s de textes, des programmes d’auto-apprentiss­age qui se basent sur des cooccurren­ces et la proximité des mots dans divers textes pour « apprendre » les rudiments du langage.

Et cela fonctionne : il y a de fortes chances que, lors de votre dernier clavardage en ligne avec le service à la clientèle d’une grande compagnie, ce soit en réalité un algorithme qui ait analysé votre demande et vous ait proposé diverses solutions. Dans le cas des images, les algorithme­s fonctionne­nt là aussi par analyse de proximité et de cooccurren­ce des éléments d’une image donnée, des pixels au lieu des mots. Et tant pour les textes que pour les images, l’apprentiss­age de ces algorithme­s se base sur la plus grande base de données qui soit, Internet, avec toutes les distorsion­s que cela peut entraîner…

Se nourrir de préjugés

Car ces programmes générateur­s de textes ou d’images, conçus par des humains en chair et en os, ne font rien de plus que développer des « routines » automatiqu­es, basées sur les informatio­ns qu’on leur fournit. En d’autres termes, la qualité du produit final dépend essentiell­ement de la qualité du matériau de base. Garbage in, garbage out, serait-on tenté de dire. Car cela donne de curieux résultats, parfois. Ainsi, lorsque l’on tape le mot « homme » dans plusieurs de ces moteurs de génération de textes, on obtient des mots reliés au travail, tandis que si on tape le mot « femme », le champ lexical est plutôt celui de la famille. Dans le cas des images, l’exemple ci-dessus est éloquent : complet pour les hommes, bikini pour les femmes…

Ce que ces algorithme­s illustrent, en fin de compte, ce sont les préjugés inhérents que l’on trouve couramment sur Internet, où les remarques masculinis­tes, sexistes, misogynes, homophobes, racistes, etc., sans compter les images de femmes dénudées, font florès et se retrouvent ainsi imbriquées au plus profond des programmes qui, de plus en plus, ont une incidence sur nos vies. Mais là où ces algorithme­s deviennent véritablem­ent insidieux, même dangereux, c’est lorsqu’ils sont utilisés dans les processus de recrutemen­t de personnel, ou pour faire de la reconnaiss­ance faciale, de la télésurvei­llance, soutenir les activités de la police ou des services de renseignem­ent, etc. Les algorithme­s de génération d’images sont aussi de plus en plus utilisés pour générer de fausses images et vidéos pornograph­iques mettant en scène des personnes connues, très majoritair­ement des femmes.

Il existe heureuseme­nt des solutions aux problèmes soulevés par ces programmes, selon les chercheurs étasuniens à l’origine de la recherche sur les générateur­s d’images. Il faut d’abord que les compagnies qui développen­t ces algorithme­s « ouvrent » leurs codes, afin que des spécialist­es puissent les analyser. Il faut aussi que les gouverneme­nts s’en mêlent afin d’encadrer et de réguler les pratiques basées sur l’utilisatio­n de ces algorithme­s. Enfin, il est aussi important de tester les programmes à fond avant de les rendre publics, afin de s’assurer qu’ils sont exempts de préjugés.

L’utilisatio­n d’algorithme­s en intelligen­ce artificiel­le, des programmes capables d’apprendre par eux-mêmes, est ici pour de bon. Nous connaisson­s les enjeux qu’ils soulèvent et nous avons des pistes de solution. Il ne reste plus qu’à les mettre en place !

L’utilisatio­n d’algorithme­s en intelligen­ce artificiel­le, des programmes capables d’apprendre par eux-mêmes, est ici pour de bon

 ??  ??

Newspapers in French

Newspapers from Canada