L’INTELLIGENCE ARTIFICIELLE AUSSI A DES PRÉJUGÉS
Les idées de son maître. Nous ne sommes pas égaux aux yeux des machines. Après s’être aperçue que les logiciels de reconnaissance faciale ont plus de difficultés à l’identifier que ses amis à la peau blanche, une chercheuse noire américaine du MIT, Joy Buolamwini, s’est livrée à une expérience sur les programmes d’IBM, de Microsoft et de la plateforme Face++. Elle a enjoint ces derniers à déterminer le sexe de 1 270 Africains et Européens à partir de photos de leurs visages. Les résultats, qu’elle vient de publier, sont édifiants. Alors que les logiciels se trompent pour seulement 1 % des hommes blanc, leur taux d’échec grimpe à 12 % pour les hommesàlapeaufoncéeetatteintmême 34 % pour les femmes de couleur. La raison ? Les bases de données servant à entraîner ces intelligences artificielles (IA) sont constituées essentiellement de portraits de sujets blancs et masculins. Or les comportements des IA dépendent étroitement des informations dont elles sont nourries. Une étude menée l’an passé par l’université Stanford (Californie) montrait ainsi que l’outil d’analyse lexicale GloVe associait plus souvent les Noirs américains à des termes négatifs. S’étant exercé sur des milliards de textes issus du Web, il reproduisait des stéréotypes tirés de ses lectures. “Les IA ne sont pas intrinsèquement neutres. Elles reflètent les priorités, les préférences et les préjugés de ceux qui les ont façonnées”, s’inquiète Joy Buolamwini. Un gros problème, dans la mesure où elles interviennent de plus en plus dans notre vie quotidienne en servant, par exemple, à trier les CV de candidats à l’embauche dans certaines entreprises. “Nous devons exiger plus de transparence sur leur fonctionnement”, préconise la scientifique. Une mesure de bon sens pour éviter que les machines adoptent nos pires travers.