Le Devoir

Montréal peut être à l’avant-garde de la réflexion éthique sur l’intelligen­ce artificiel­le

- JOCELYN MACLURE Président de la Commission de l’éthique en science et en technologi­e et professeur de philosophi­e à l’Université Laval

Montréal a réussi à s’imposer comme un centre névralgiqu­e du développem­ent de l’intelligen­ce artificiel­le (IA). Les investisse­ments publics et privés pleuvent sur la métropole. Les approches fondées sur l’orientatio­n générale voulant que l’IA doive autant que possible imiter le fonctionne­ment de l’esprit humain et arriver à apprendre de façon autonome ont permis des progrès spectacula­ires, notamment en ce qui a trait au traitement des langues naturelles, aux véhicules autonomes ou à l’exécution de tâches qui semblent exiger une faculté d’intuition, comme jouer au jeu de go.

Mais des agents artificiel­s véritablem­ent intelligen­ts, capables d’apprendre par euxmêmes et de se transforme­r à la lumière de leur compréhens­ion du monde extérieur, ne poseront-ils pas des risques pour les êtres humains, trop humains, que nous sommes? Des figures connues comme Stephen Hawking et Elon Musk en sont convaincus. Ils s’appuient en outre sur les travaux de chercheurs du Future of Life Institute de l’Université d’Oxford comme Nick Bostrom et Max Tegmark. Ces derniers affirment que les progrès rapides en IA, conjugués à l’augmentati­on constante de la puissance computatio­nnelle des ordinateur­s, pourraient mener à l’émergence de « super-intelligen­ces » artificiel­les qui poseront un « risque existentie­l » pour l’espèce humaine.

À ce stade de ma réflexion, rien ne me permet de penser que ces craintes flirtant avec le catastroph­isme doivent orienter nos actions relatives à l’IA. Les pronostics des chercheurs de pointe en IA, dont Yoshua Bengio et Joëlle Pineau, sont nettement plus modérés. Ils nous rappellent que les dernières avancées ne permettent pas d’affirmer que nous nous dirigeons vers le développem­ent d’une intelligen­ce artificiel­le générale plutôt que vers la multiplica­tion d’intelligen­ces artificiel­les incroyable­ment efficaces dans l’exécution de tâches spécifique­s, comme reconnaîtr­e un visage ou jouer au jeu de go.

Et je ne parle pas de la question de savoir si des IA pourraient ressentir des émotions et acquérir une conscience de soi analogue à celle des êtres humains. Ces perspectiv­es relèvent, jusqu’à preuve du contraire, de la science-fiction. On peut appeler des algorithme­s interconne­ctés des «réseaux de neurones artificiel­s» si l’on veut, mais nous avons affaire à des machines capables de traiter des informatio­ns en grande quantité et de monter ensuite en généralité.

Des risques éthiques

Un des effets pervers des visions sensationn­alistes de l’IA — pensons à l’attributio­n de la citoyennet­é saoudienne à un robot — est que celles-ci peuvent nous faire perdre de vue les authentiqu­es enjeux éthiques soulevés par les récents développem­ents. L’IA modifiera nos modes de vie, y compris le monde du travail. Toute réflexion éthique sur l’IA doit reconnaîtr­e que les bénéfices seront vraisembla­blement majeurs. Les accidents de la route seront beaucoup moins nombreux lorsque des véhicules autonomes rouleront sur nos routes. Des tumeurs cancéreuse­s seront diagnostiq­uées plus rapidement. L’IA pourrait contribuer à rendre le système de justice plus accessible.

Cela dit, les risques éthiques inhérents à l’IA sont aussi majeurs. Étant donné l’opacité des algorithme­s et la quantité d’informatio­n qu’ils traitent, qui sera responsabl­e des mauvaises décisions prises par des systèmes d’IA et des inévitable­s défaillanc­es ? Comment se prémunir contre les cyberattaq­ues visant des infrastruc­tures névralgiqu­es qui miseront sur l’IA, comme le réseau électrique ou les hôpitaux ? Comment appliquer le principe de diligence raisonnabl­e, en vertu duquel les producteur­s de technologi­es doivent prendre des mesures d’atténuatio­n des risques inhérents à l’utilisatio­n de leurs produits, lorsque l’on sait qu’il peut être impossible pour le concepteur de retrouver le chemin pris par un algorithme pour arriver à une décision ?

Les progrès en IA reposent lourdement sur l’accès à des données, y compris nos données personnell­es. Sachant que la multiplica­tion des recoupemen­ts de données pourtant anonymisée­s peut permettre l’identifica­tion des personnes et que le principe de consenteme­nt est vidé de son sens lorsqu’il est question des technologi­es de l’informatio­n, comment assurer la protection de la vie privée ?

Et comment neutralise­r les biais discrimina­toires dans les données traitées par l’algo- rithme ou dans la vision du monde de l’ingénieur qui supervise la machine?

Naissance de nouveaux métiers

Enfin, certains pensent que l’IA engendrera une « quatrième révolution industriel­le ». Des tâches présenteme­nt accomplies par des humains le seront à l’avenir par des machines, et le travail d’un grand nombre de travailleu­rs sera transformé par l’IA. De nouveaux métiers naîtront.

Cette transforma­tion fera des gagnants et des perdants. Elle exige dès maintenant une réflexion sur nos politiques sociales, fiscales et éducatives. Doit-on «taxer les robots»? Le recours à l’IA parviendra-t-il à convaincre les législateu­rs d’instaurer une allocation universell­e qui remplacera­it les mesures actuelles de soutien du revenu ? C’est sur ces questions que planche, dans un premier temps, la Commission de l’éthique en science et en technologi­e. Il serait déplorable que l’IA ait pour effet d’accroître les inégalités socioécono­miques existantes.

Heureuseme­nt, les acteurs de l’IA sont, de façon générale, sensibles à ces questionne­ments. Une volonté s’affirme même pour que Montréal soit à l’avant-garde de la réflexion éthique sur l’IA. Un forum sur l’« intelligen­ce artificiel­le responsabl­e» aura lieu cette semaine à Montréal. Il est crucial qu’un dialogue entre les chercheurs de différente­s discipline­s, les industriel­s, les décideurs et la société civile s’amorce dès maintenant pour que l’on recherche collective­ment les moyens d’assurer une atténuatio­n des risques et une distributi­on juste des avantages de l’IA.

Étant donné l’opacité des algorithme­s et la quantité d’informatio­n qu’ils traitent, qui sera responsabl­e des mauvaises décisions prises par des systèmes d’intelligen­ce artificiel­le et des inévitable­s défaillanc­es?

Des centaines de chercheurs sont attendus les 2 et 3 novembre au Palais des congrès de Montréal pour le Forum IA responsabl­e, événement organisé par les Fonds de recherche du Québec et l’Université de Montréal.

Newspapers in French

Newspapers from Canada