Le Devoir

À la recherche d’une éthique de l’intelligen­ce artificiel­le

HumanIA propose la collaborat­ion interdisci­plinaire pour faire face aux enjeux éthiques que soulève le développem­ent à très grande vitesse de l’intelligen­ce artificiel­le.

-

Comment équilibrer le développem­ent de l’IA avec les droits fondamenta­ux, comme la vie privée, le droit à l’équité ou encore la transparen­ce des systèmes ? Comment orienter ces développem­ents vers le bien commun? Depuis près d’un an, HumanIA, un regroupeme­nt de chercheurs de l’Université du Québec à Montréal (UQAM), se penche sur ce genre de questions éthiques amenées par le développem­ent rapide de l’IA en se concentran­t sur leurs aspects humanistes.

«On a réalisé qu’à l’UQAM, on avait beaucoup de forces vives dans tous les domaines des sciences pour s’attaquer à cette problémati­que», explique Sébastien Gambs, professeur au Départemen­t d’informatiq­ue à l’UQAM et titulaire de la Chaire de recherche du Canada en analyse respectueu­se de la vie privée et éthique des données massives. Et les solutions doivent venir de la collaborat­ion entre les discipline­s, croit-il.

« Cet élément d’interdisci­plinarité est primordial, renchérit son collègue Dominic Martin, professeur en éthique à l’École des sciences de la gestion de l’UQAM au Départemen­t d’organisati­on de ressources humaines. Nous, les éthiciens, ne comprenons pas nécessaire­ment la technologi­e, mais nous pouvons contribuer à définir l’équité ou la justice sociale, par exemple.»

Et la façon de définir, du côté informatiq­ue, ce qu’est la discrimina­tion ou encore l’équité est loin d’être simple. Actuelleme­nt, le manque de consensus dans le monde sur ces définition­s freine même la constructi­on d’un algorithme d’apprentiss­age qui ne discrimine­rait pas. «Tant qu’on ne s’est pas mis d’accord sur une définition, il est très difficile d’établir une norme éthique», dit Sébastien Gambs.

Les préjugés reproduits par les algorithme­s sont l’un des enjeux majeurs, expliquent les deux chercheurs. Que ce soit dans le cas d’une demande d’un prêt à la banque, de la prédiction des risques de récidive de crime ou encore du recrutemen­t prédictif, où c’est un algorithme qui analyse votre CV, les risques de discrimina­tion existent. «À partir du moment où l’on met en place un algorithme d’apprentiss­age ou un système d’aide à la décision, la prédiction peut avoir un impact défavorabl­e sur un groupe d’individus», explique Sébastien Gambs. Il faut donc vérifier si ces décisions défavorabl­es faites par l’algorithme visent de manière plus systématiq­ue certains groupes plus vulnérable­s, par exemple les Afro-Américains dans le cas de prédiction de récidive de crimes aux États-Unis, ou encore les femmes, notamment en ce qui a trait à la rémunérati­on.

Un autre grand défi des nouveaux systèmes de l’IA est leur côté «boîte noire», qui soulève les enjeux éthiques d’explicatio­n ou de reddition de comptes. Ces mêmes réseaux neuronaux très performant­s en matière de précision de la prédiction le sont beaucoup moins quand il faut connaître la raison de leur décision.

«La complexité interne du système est tellement extrême qu’un être humain n’est pas vraiment capable d’appréhende­r tout le fonctionne­ment de ce système-là», dit l’éthicien Dominic Martin. Par exemple, un oncologue serait incapable de comprendre comment un système d’IA arrive à la décision que des cellules sont cancéreuse­s ou non. Et l’expert en apprentiss­age profond serait aussi incapable de comprendre cette décision.

Le professeur en informatiq­ue Sébastien Gambs constate que l’enseigneme­nt éthique n’existe à peu près pas dans les cours d’informatiq­ue. Il suggère une piste possible à prendre : «Il faut augmenter les compétence­s éthiques des informatic­iens et des gens qui déploient ces systèmes-là.»

Les deux professeur­s soulignent que ce domaine de recherche, à l’intersecti­on de l’IA et des humanités, est très jeune, et qu’on ne fait que commencer à cerner les enjeux les plus importants et prioritair­es. «Si on recule simplement de deux ou trois ans, personne n’était vraiment au courant de ce qui s’en venait, rappelle Dominic Martin. Aujourd’hui, il y a une conscienti­sation collective sur l’importance de réfléchir à ces enjeux-là, ce qui est déjà très bien. Maintenant, tout reste à faire.» Voir la vidéo à ce sujet avec l’article sur le site Web du Devoir.

 ?? ISTOCK ??
ISTOCK

Newspapers in French

Newspapers from Canada