Ils testent la moralité des algorithmes
Des chercheurs veulent corriger les travers de l’intelligence artificielle
Début octobre, le géant Amazon a annoncé qu’il mettait au placard son « robot recruteur » pour cause de misogynie. Le programme était censé alléger le travail des ressources humaines en opérant un tri préalable dans les CV. Mais l’expérience a prouvé que l’algorithme avait une fâcheuse tendance à écarter les documents qui comportaient le mot «femme».
«Un algorithme peut reproduire un biais social. » Anna Choury, directrice et cofondatrice de Maathics
Si Amazon avait connu Maathics, le sexisme de son intelligence artificielle (IA) aurait été détecté plus tôt. Car cette start-up, lancée par des chercheurs toulousains, se propose de vérifier que les IA sont responsables, au sens éthique du terme. « On pense toujours que les IA sont meilleures que nous, explique Anna Choury, directrice générale et cofondatrice de Maathics. Mais on ne les programme pas vraiment. Elles apprennent à partir des données qu’on leur fournit. Dans le cas d’Amazon, qui emploie en majorité des hommes, elle a conclu toute seule que les profils féminins n’étaient pas les bons. » Cette ancienne ingénieure de recherche en big data de l’Institut de mathématiques de Toulouse, fan de romans dystopiques, possède quantité d’exemples de travers détectés chez les IA. «Aux Etats-Unis, un logiciel a été testé pour prévenir le risque de récidive et aider les juges dans leur décision de remise en liberté, raconte-t-elle. En réalité, elle se fondait sur l’origine ethnique. Quand on ne lui donne pas une diversité suffisante de données à observer, un algorithme peut reproduire un biais social sans faire la distinction entre l’injustice et les tendances à
reproduire. » Donc, et c’est presque rassurant, il faut l’aider. L’ironie, c’est que, pour le faire, Maathics a développé son propre algorithme. Confession, âge, sexe, préférences sexuelles… Il a avalé tous les critères que les législations européennes peuvent considérer comme discriminatoires. L’idée est de vérifier si les logiciels utilisés, dans une entreprise par exemple, n’y contreviennent pas malgré eux.
Si c’est le cas, Maathics proposera aussi bientôt de corriger les mauvais penchants de l’IA. Mais son but est de créer un label « d’intelligence artificielle équitable ». Il garantirait l’éthique des algorithmes, histoire de s’assurer qu’un clone de HAL 9000 ne se cache pas dans notre ordinateur.