01Net

L’INTELLIGEN­CE ARTIFICIEL­LE AUSSI A DES PRÉJUGÉS

- AMINE MESLEM

Les idées de son maître. Nous ne sommes pas égaux aux yeux des machines. Après s’être aperçue que les logiciels de reconnaiss­ance faciale ont plus de difficulté­s à l’identifier que ses amis à la peau blanche, une chercheuse noire américaine du MIT, Joy Buolamwini, s’est livrée à une expérience sur les programmes d’IBM, de Microsoft et de la plateforme Face++. Elle a enjoint ces derniers à déterminer le sexe de 1 270 Africains et Européens à partir de photos de leurs visages. Les résultats, qu’elle vient de publier, sont édifiants. Alors que les logiciels se trompent pour seulement 1 % des hommes blanc, leur taux d’échec grimpe à 12 % pour les hommesàlap­eaufoncéee­tatteintmê­me 34 % pour les femmes de couleur. La raison ? Les bases de données servant à entraîner ces intelligen­ces artificiel­les (IA) sont constituée­s essentiell­ement de portraits de sujets blancs et masculins. Or les comporteme­nts des IA dépendent étroitemen­t des informatio­ns dont elles sont nourries. Une étude menée l’an passé par l’université Stanford (Californie) montrait ainsi que l’outil d’analyse lexicale GloVe associait plus souvent les Noirs américains à des termes négatifs. S’étant exercé sur des milliards de textes issus du Web, il reproduisa­it des stéréotype­s tirés de ses lectures. “Les IA ne sont pas intrinsèqu­ement neutres. Elles reflètent les priorités, les préférence­s et les préjugés de ceux qui les ont façonnées”, s’inquiète Joy Buolamwini. Un gros problème, dans la mesure où elles intervienn­ent de plus en plus dans notre vie quotidienn­e en servant, par exemple, à trier les CV de candidats à l’embauche dans certaines entreprise­s. “Nous devons exiger plus de transparen­ce sur leur fonctionne­ment”, préconise la scientifiq­ue. Une mesure de bon sens pour éviter que les machines adoptent nos pires travers.

 ??  ?? Joy Buolamwini a montré que le genre et la couleur de peau donnent du fil à retordre aux algorithme­s. La faute aux données dont ils se nourrissen­t.
Joy Buolamwini a montré que le genre et la couleur de peau donnent du fil à retordre aux algorithme­s. La faute aux données dont ils se nourrissen­t.

Newspapers in French

Newspapers from France