Comment expliquer ces biais? Les sources sont multiples.
Bien souvent les algorithmes sont entraînés sur des données déjà biaisées, qu’il s’agisse de texte, d’images ou de voix. Les outils de reconnaissance faciale, par exemple, “apprennent” à partir de banques de données où les hommes blancs sont sur-représentés et les femmes noires sous-représentées. De même, les algorithmes de traduction s’entraînent sur des textes qui véhiculent également leur lot de stéréotypes sexistes et racistes. Pas très étonnant que les outils de traitement du langage associent plus volontier au masculin les termes de CEO et au féminin ceux de secrétaire ou d’infirmier. Dans la plupart des cas, ces biais ne sont pas intentionnels et les concepteurs des systèmes d’IA font de leur mieux pour les corriger. Mais encore faut-il qu’ils (et elles?) perçoivent le problème. Cela demande une vraie diversité. La sous-représentation des femmes dans le domaine (estimée à moins de 13,5 % dans certaines branches de l’IA), représente par exemple un frein majeur à la détection des biais dans le développement des technologies. La bonne nouvelle, c’est que de plus en plus de projets liés au « débiaisage » des données ou des algorithmes et à la promotion de la diversité émergent dans l’industrie et les universités. Ainsi, à Montréal, le programme AI for Social Good soutient le développement des compétences et l’employabilité en IA d’étudiantes en informatique tout en engageant les participantes à réfléchir aux enjeux éthiques et sociaux du domaine. Fruit de la cohorte 2018, le projet Biasly vise spécifiquement à détecter les biais sexistes dans les textes. En juin 2019, IVADO et le MILA proposeront leur première école
d’été sur les biais et les discriminations en IA. Voilà de quoi sensibiliser le milieu aux dimensions techniques et éthiques de cet enjeu essentiel pour notre avenir. Jihane Lamouri - Coordonnatrice à la diversité, IVADO Martin Gibert - Chercheur en éthique, CRÉ/IVADO