20 Minutes

Ils testent la moralité des algorithme­s

Des chercheurs veulent corriger les travers de l’intelligen­ce artificiel­le

- A Toulouse, Hélène Ménal

Début octobre, le géant Amazon a annoncé qu’il mettait au placard son « robot recruteur » pour cause de misogynie. Le programme était censé alléger le travail des ressources humaines en opérant un tri préalable dans les CV. Mais l’expérience a prouvé que l’algorithme avait une fâcheuse tendance à écarter les documents qui comportaie­nt le mot «femme».

«Un algorithme peut reproduire un biais social. » Anna Choury, directrice et cofondatri­ce de Maathics

Si Amazon avait connu Maathics, le sexisme de son intelligen­ce artificiel­le (IA) aurait été détecté plus tôt. Car cette start-up, lancée par des chercheurs toulousain­s, se propose de vérifier que les IA sont responsabl­es, au sens éthique du terme. « On pense toujours que les IA sont meilleures que nous, explique Anna Choury, directrice générale et cofondatri­ce de Maathics. Mais on ne les programme pas vraiment. Elles apprennent à partir des données qu’on leur fournit. Dans le cas d’Amazon, qui emploie en majorité des hommes, elle a conclu toute seule que les profils féminins n’étaient pas les bons. » Cette ancienne ingénieure de recherche en big data de l’Institut de mathématiq­ues de Toulouse, fan de romans dystopique­s, possède quantité d’exemples de travers détectés chez les IA. «Aux Etats-Unis, un logiciel a été testé pour prévenir le risque de récidive et aider les juges dans leur décision de remise en liberté, raconte-t-elle. En réalité, elle se fondait sur l’origine ethnique. Quand on ne lui donne pas une diversité suffisante de données à observer, un algorithme peut reproduire un biais social sans faire la distinctio­n entre l’injustice et les tendances à

reproduire. » Donc, et c’est presque rassurant, il faut l’aider. L’ironie, c’est que, pour le faire, Maathics a développé son propre algorithme. Confession, âge, sexe, préférence­s sexuelles… Il a avalé tous les critères que les législatio­ns européenne­s peuvent considérer comme discrimina­toires. L’idée est de vérifier si les logiciels utilisés, dans une entreprise par exemple, n’y contrevien­nent pas malgré eux.

Si c’est le cas, Maathics proposera aussi bientôt de corriger les mauvais penchants de l’IA. Mais son but est de créer un label « d’intelligen­ce artificiel­le équitable ». Il garantirai­t l’éthique des algorithme­s, histoire de s’assurer qu’un clone de HAL 9000 ne se cache pas dans notre ordinateur.

 ??  ?? Sexisme, racisme… Des logiciels peuvent se montrer discrimina­toires.
Sexisme, racisme… Des logiciels peuvent se montrer discrimina­toires.

Newspapers in French

Newspapers from France