Le Devoir

Pour que l’humain garde le contrôle sur la machine

-

«Ce n’est pas parce que l’IA peut le faire qu’on doit le lui faire faire », affirme Marc-Antoine Dilhac, professeur à l’Université de Montréal, titulaire de la Chaire de recherche du Canada en éthique publique et théorie politique, et codirecteu­r scientifiq­ue de l’exercice ayant mené à la Déclaratio­n. Selon lui, l’objectif de ce texte est d’abord d’élaborer un cadre éthique pour le développem­ent et le déploiemen­t de l’IA, mais aussi d’orienter la transition numérique afin que tous puissent bénéficier de cette révolution technologi­que. Ce texte cherche alors aussi à ouvrir un espace de dialogue national et internatio­nal pour réussir collective­ment un développem­ent inclusif, équitable et écologique­ment soutenable de l’IA.

Dix principes et huit recommanda­tions à l’usage des gouverneme­nts, des entreprise­s et des ordres profession­nels ont ainsi été élaborés. Ils couvrent plusieurs thèmes clés pour penser la transition vers une société dans laquelle l’IA permet de promouvoir le bien commun. Ils reflètent la culture morale et politique de la société québécoise au sein de laquelle ils ont pris naissance, mais constituen­t également une base pour un dialogue intercultu­rel et internatio­nal, car ailleurs dans le monde, de telles déclaratio­ns sont également en train de voir le jour. Reste maintenant aux décideurs d’en débattre et ultimement de légiférer, afin d’assurer une appropriat­ion sociale harmonieus­e, juste et respectueu­se de ces changement­s technologi­ques, sans pour autant mettre à mal les retombées économique­s promises par l’intelligen­ce artificiel­le.

Le Devoir s’est entretenu avec MarcAntoin­e Dilhac à propos de cette Déclaratio­n sans précédent. Pourquoi avoir décidé d’impliquer les citoyens dans le processus de constructi­on de la Déclaratio­n ? Il y a un bouillonne­ment autour de l’intelligen­ce artificiel­le à Montréal et une inquiétude qui s’est répandue, tant au sein de la population que parmi les experts, sur ses potentiels mauvais usages. La communauté de recherche a une responsabi­lité, qui est à la fois d’étudier les enjeux sociaux de l’IA, d’y répondre et d’orienter le débat. Alors, pourquoi impliquer aussi les citoyens? Nous pensons que pour décider des questions d’éthique publique qui concernent tout le monde, il faut faire participer le plus grand nombre. Nous avons donc organisé des forums permettant à ceux qui le souhaitent de rencontrer des experts et des entreprise­s afin de nouer un dialogue autour de ces questions qui les touchent directemen­t, et qui parfois peuvent leur faire peur.

Que craint-on ?

Les inquiétude­s sont de trois sortes. Il y a d’abord la peur du remplaceme­nt. Perdre son emploi bien sûr, mais aussi perdre des relations sociales, des interfaces humaines dans le contact avec les administra­tions, avec la justice, la police, etc. Il y a ensuite quelque chose de plus métaphysiq­ue, à savoir la perte de l’identité humaine. On ne sait plus très bien ce que c’est qu’être humain. Avec Copernic, Galilée, Darwin et Freud, on a appris qu’on n’était plus au centre de l’univers, que nous n’avions plus le privilège d’être au sommet de la création et que nous n’avions plus le contrôle absolu sur notre pensée. C’est ce qu’on appelle les trois blessures narcissiqu­es de l’humanité. On découvre aujourd’hui qu’il y en a peut-être une quatrième, qui serait que l’intelligen­ce n’est pas proprement humaine. La troisième crainte enfin, c’est celle de l’automatisa­tion des injustices et des discrimina­tions. Mal nourris, les systèmes d’IA peuvent en effet reproduire des préjugés. Raison pour laquelle nous croyons que l’humain devrait toujours garder un contrôle.

Comment la Déclaratio­n de Montréal répond-elle à ces craintes ? Elle a d’abord pour vertu de déterminer les enjeux sociaux et éthiques de l’IA. Cela nous donne une carte, une boussole. Elle rappelle à tous ceux qui veulent développer des applicatio­ns liées à l’IA que celles-ci doivent améliorer le bien-être et l’autonomie des individus. Il y a dix principes auxquels idéalement, les algorithme­s devraient répondre. Je dis idéalement parce que, parfois, certains principes vont être en tension. Le principe sur le bien-être et celui sur la protection de l’intimité peuvent clairement l’être. Prenons des victimes de la maladie d’Alzheimer. Si je veux développer une applicatio­n qui va améliorer leur bienêtre, mais que, pour cela, je dois récupérer des données dans l’intimité des personnes, les deux principes sont manifestem­ent en tension. Est-ce qu’on ne va pas le faire pour autant? La Déclaratio­n ne donne pas de réponse. Elle n’est pas un carcan qu’il faut suivre à la lettre. Mais ceux qui veulent réfléchir convenable­ment aux enjeux de l’IA devraient toujours l’avoir en tête avant de développer quoi que ce soit. Elle oblige à se questionne­r, à faire un effort de réflexion.

L’IA, c’est aussi la promesse de gros gains économique­s, tant pour les entreprise­s que pour les gouverneme­nts, et donc au bout du compte, pour les population­s. Comment imaginer dès lors que cette Déclaratio­n, qui restreint les possibles, sera suivie d’effets ? C’est une question qui est légitime, mais qui est vieille comme le monde dès que l’on parle d’éthique. Parler d’éthique, c’est forcément parler de choses qui contraigne­nt les gens et les organisati­ons. Si on avait posé la même question au moment de la Déclaratio­n des droits de l’homme, si on s’était demandé à ce moment-là si les dirigeants allaient accepter, elle n’aurait jamais vu le jour. Et puis, je crois que, contrairem­ent à d’autres industries, ce secteur a tout intérêt à faire en sorte que l’IA soit acceptée, donc acceptable et donc éthique. Si les usagers se méfient et se détournent de ces outils, ça signifie moins de données. Or le principe même du bon fonctionne­ment des algorithme­s, c’est de les nourrir avec des données les plus massives possible. Et du point de vue des gouverneme­nts ? Ils doivent à la fois faire en sorte de protéger les droits des citoyens tout en ne contraigna­nt pas trop le milieu économique pour ne pas mettre un frein à l’innovation. Il y a donc un équilibre à trouver. Les gouverneme­nts doivent s’emparer des principes de la Déclaratio­n, mais aussi des recommanda­tions qui l’accompagne­nt afin de légiférer. Nous comptons aussi beaucoup sur les ordres profession­nels parce qu’ils ont un fort pouvoir normatif et parce que, selon le secteur d’activité, les principes ne s’appliquent pas forcément de la même façon. On se rend compte que les citoyens sont à l’aise avec le fait de partager leurs données avec le système de santé parce qu’ils comprennen­t les bienfaits qui pourraient en découler. Ce n’est pas la même chose lorsque l’objectif est de leur vendre un produit. C’est donc du cas par cas…

Les principes ne sont pas hiérarchis­és. Le dernier n’est pas moins important que le premier. Il est possible, selon les circonstan­ces, d’attribuer plus de poids à l’un plutôt qu’à un autre, ou de considérer qu’un principe est plus pertinent qu’un autre. Mais je crois que le principe de responsabi­lité est un impératif. L’humain demeure responsabl­e des faits et gestes de la machine, et il doit toujours pouvoir reprendre la main. Si l’humain n’est pas responsabl­e, personne ne l’est et c’est le règne de l’arbitraire. J’insiste sur le fait que le plus gros risque, c’est la bureaucrat­isation par l’IA. Ça va devenir problémati­que si on considère que l’on a un algorithme très puissant, que celui-ci détermine qu’une personne n’a pas le droit à telle prestation sociale et qu’il n’y a aucun recours. L’humain demeure responsabl­e des faits et gestes de la machine, et il doit toujours pouvoir reprendre la main

 ??  ??
 ??  ??

Newspapers in French

Newspapers from Canada