Prôner une intelligence artificielle responsable
Orienter les travaux de recherche en intelligence artificielle vers le bien commun : voilà l’objectif affiché par le regroupement de recherches HumanIA. Pour l’une de ses coordonnatrices, la professeure au Département d’informatique de l’Université du Québec à Montréal (UQAM) Marie-Jean Meurs, la clé pour y arriver réside dans les collaborations entre les différentes disciplines.
Pour prendre en considération les enjeux éthiques qui émergent de l’intelligence artificielle, Marie-Jean Meurs travaille, dès qu’elle démarre des projets de recherche, avec des juristes, des philosophes et des éthiciens. «Je pourrais faire des mathématiques appliquées et de l’informatique théorique, déléguer la dimension éthique à mes collègues et ne pas m’en préoccuper, en me disant que je fabrique de jolis moteurs, puis que les autres vont décider du contexte éthique dans lequel ils les utilisent.» Mais cela ne lui ressemble pas. Depuis le début de sa carrière, sa démarche a pris un virage fort différent. «Il se trouve que mon intérêt de recherche, en intelligence artificielle, c’est vraiment dans le cadre d’une recherche multidisciplinaire, où je préfère partir des problèmes, puis sélectionner des approches d’intelligence artificielle qui vont s’adapter, pour le mieux, aux problèmes qu’on rencontre. Dans cette démarche, la collaboration entre les disciplines m’apparaît indispensable.» Cette démarche permet notamment de respecter ou de répondre à des principes éthiques dès la conception d’un algorithme, d’une base de données ou de tout autre outil technologique.
Le projet de recherche Legalia, qu’elle dirige avec Hugo Cyr, doyen de la Faculté de science politique et de droit de l’UQAM, et Sebastien Gambs, professeur au Département d’informatique de l’UQAM, est révélateur. Avec comme objectif de développer une éthique de l’intelligence artificielle dans les domaines du droit et de la justice, il met à contribution des partenaires universitaires issus de domaines aussi variés que les études internationales, les sciences juridiques, la responsabilité sociale et environnementale en gestion, les sciences politiques et la linguistique. «Mon approche, c’est d’adjoindre systématiquement aux projets de recherche des gens qui viennent d’un domaine où ils ont l’habitude de se poser ce genre de questions, de les écouter et de les faire participer à la réflexion. C’est très enrichissant. »
Discrimination
Avec Hugo Cyr et Sebastien Gambs, ainsi que Dominic Martin, professeur au Département des organisations et des ressources humaines, elle dirigera aussi, dès l’été 2018, un projet de recherche sur l’égalité, la discrimination et l’intelligence artificielle.
La question de la discrimination se révèle particulièrement intéressante puisque les outils d’aide à la décision et les systèmes automatisés de décision ont le potentiel de détecter et d’enrayer les biais discriminatoires, mais aussi de les amplifier s’ils ne sont pas conçus avec soins. Elle met en exergue la question de la qualité et de la variété des données avec lesquelles sont entraînés les algorithmes. « C’est très compliqué, assure-t-elle. Ce n’est pas toujours possible d’avoir des données qui vont être équilibrées. »
Un autre champ de recherche qui touche l’éthique de l’intelligence artificielle, dans lequel elle est présentement très active, concerne l’apprentissage d’informations socialement pertinentes tout en protégeant la vie privée et la sécurité des individus. Un des défis consiste à empêcher, même lorsque les données sont anonymisées, d’identifier des personnes en reconstruisant des liens entre les informations. «Ce n’est pas toujours évident, affirme-t-elle, parce que si vous enlevez trop d’informations ou de données, vous n’avez plus rien. Si vous n’en enlevez pas assez, vous ratez votre objectif parce que vous apprenez des choses qui permettraient d’identifier, par exemple, des patients dans le contexte de la santé.»