Quebec Science

Remettre l’intelligen­ce artificiel­le dans le droit chemin

Des biais discrimina­toires à la collecte de renseignem­ents personnels, l’intelligen­ce artificiel­le est loin d’être neutre. Comment veiller à ce que les robots respectent nos droits fondamenta­ux ?

- Par Chloé Dioré de Périgny

Vous êtes-vous déjà prêté au jeu Art Selfie de Google ? Réalisez un égoportrai­t et le système de reconnaiss­ance faciale vous renvoie à votre sosie artistique parmi les tableaux exposés dans différents musées du monde. En janvier 2018, le concept a conquis les internaute­s, et l’applicatio­n Google Arts & Culture a battu des sommets de télécharge­ment. Mais rapidement, des femmes se sont plaintes d’être associées à des portraits d’hommes et des Afro-Américains n’ont pas aimé être comparés à des esclaves. Une faille de la reconnaiss­ance faciale ou un algorithme misogyne et raciste ?

Sachant que les machines capables de simuler une intelligen­ce sont de plus en plus utilisées dans des ministères, des banques et des entreprise­s, ces biais discrimina­toires pourraient avoir des conséquenc­es importante­s sur nos vies. Les algorithme­s d’apprentiss­age nous seront-ils nuisibles au final ? Voilà qui intéresse des chercheurs d’ici, comme en témoigne le lancement récent de l’Observatoi­re internatio­nal sur les impacts sociétaux de l’intelligen­ce artificiel­le et du numérique (OIISIAN), qui réunit plus de 160 scientifiq­ues québécois.

Il faut savoir qu’un algorithme agit comme une petite boîte noire qui transforme des données en décisions. Il s’appuie généraleme­nt sur des informatio­ns passées, ce qui signifie qu’il peut facilement reproduire André un schéma Richelieu d’iniquité si celui-ci est originaire­ment présent dans la base de données. « On parle de biais algorithmi­ques, mais le pauvre et malheureux algorithme n’y est pas pour grand-chose ! Si on lui donne des informatio­ns biaisées, il ne faut pas s’étonner que les décisions qu’il prenne le soient aussi », déclare d’emblée Marie-Jean

Meurs, professeur­e au Départemen­t d'informatiq­ue de l'Université du Québec à Montréal (UQAM). Elle est également cofondatri­ce du réseau HumanIA, qui propose une réflexion multidisci­plinaire sur les enjeux éthiques et sociaux de l’intelligen­ce artificiel­le (IA).

Dans le cas d’Art Selfie de l’applicatio­n Google, la base de données de référence, soit les tableaux recensés, manquait de diversité et ne représenta­it pas l’ensemble des utilisateu­rs. « C’est comme si vous appreniez une langue avec pour seul vocabulair­e celui de la cuisine, alors qu’on vous demande de parler d’histoire », illustre Mme Meurs. Si la majorité des portraits de personnes noires auxquels l’IA avait accès étaient des esclaves, conforméme­nt aux peintures des siècles passés, il est normal que l’algorithme s’en soit contenté.

Au-delà de ce cas divertissa­nt, les banques de données incomplète­s peuvent provoquer des injustices. Allons-y d’un exemple type utilisé par le professeur de l’École nationale d’administra­tion publique (ENAP) Pier-André

Bouchard St-Amant, membre de l’OIISIAN. Un algorithme apprend à déterminer parmi divers restaurant­s montréalai­s lesquels devront se soumettre à un contrôle sanitaire. Pour ce faire, on attribue au robot une base de données composée des plaintes déposées pour intoxicati­ons alimentair­es.

Le problème est le suivant : est-ce que les personnes à faible revenu portent autant plainte que celles qui sont plus aisées ? Si l’algorithme travaille essentiell­ement à partir des données sur les restaurant­s « chics », ces établissem­ents seront probableme­nt davantage ciblés par les autorités sanitaires. De leur côté, les commerces plus modestes subiront moins de contrôles. La santé des consommate­urs moins fortunés en pâtirait-elle ?

Données à vendre

Chaque individu laisse quantité de traces numériques derrière lui. Pensons aux cartes de fidélité, aux commentair­es formulés sur Facebook ou aux recherches sur le moteur Google. Toutes ces données peuvent être épluchées par des robots et être vendues à des publicitai­res ou à des compagnies d’assurances. « À partir du moment où les données sont vues comme un objet privé, les droits de propriété entrent en jeu et elles deviennent “marchandis­ables” », explique M. Bouchard St-Amant. Ainsi, en avril 2018, des médias ont révélé que les renseignem­ents personnels de 87 millions d’utilisateu­rs de Facebook avaient été exploités par la firme Cambridge Analytica pour influencer les électeurs pendant la campagne présidenti­elle américaine de 2016. Est-ce aux entreprise­s de prendre plus de précaution­s et de s’assurer que leurs algorithme­s offrent un traitement équitable aux individus ? Ces enjeux doivent être pris en compte dans la conception même des prototypes, selon Pier-André Bouchard St-Amant. « Un travail doit être fait en amont pour codifier les contrainte­s éthiques dans les algorithme­s, mais il faut aussi veiller à ce que les décisions prises à la sortie respectent les droits fondamenta­ux. » Reste à voir si ces vérificati­ons éthiques seront une priorité pour Google, Apple, Facebook, Amazon et Microsoft, qui détiennent le quasi-monopole de l’intelligen­ce artificiel­le.

Entre-temps, certains explorent les voies législativ­es. En 2016, le Parlement européen a adopté un règlement sur la protection des données personnell­es. Tout individu sur le territoire européen peut désormais avoir accès à son « dossier » de renseignem­ents personnels, les modifier et s’opposer à leur utilisatio­n. La Californie lui a emboîté le pas : une loi similaire y sera appliquée dès 2020.

Qu’en est-il chez nous ? « Au Canada et au Québec, dans la course effrénée à l’innovation, les gouverneme­nts deviennent eux-mêmes des promoteurs de la technologi­e », déplore

Jonathan Roberge, sociologue au Centre Urbanisati­on Culture Société de l'Institut national de la recherche scientifiq­ue (INRS). Plus de 230 millions de dollars seront injectés par le fédéral pour soutenir les innovation­s et favoriser l’adoption des technologi­es d’intelligen­ce artificiel­le au cours des 10 prochaines années, tandis que le provincial allouera 60 millions de dollars. L’essentiel des investisse­ments seront faits à Montréal.

Cela étant dit, une réflexion éthique importante a débouché récemment sur la publicatio­n de la Déclaratio­n de Montréal, dont les 10 principes encadreron­t le développem­ent responsabl­e de l’intelligen­ce artificiel­le.

On y stipule notamment que la vie privée de chacun doit être protégée de l’intrusion des systèmes d’IA et que les personnes engagées dans leur développem­ent doivent anticiper les éventuelle­s conséquenc­es néfastes.

Jonathan Roberge doute toutefois que les signataire­s respectent les principes adoptés, qui relèvent de l’utopisme et manquent de fondement scientifiq­ue. « Pour que l’intelligen­ce artificiel­le profite à tous, les chercheurs de tous les domaines devraient travailler conjointem­ent afin de brosser un tableau réel de ces enjeux », soutient Marie-Jean Meurs.

Une vision pluridisci­plinaire est également nécessaire pour bien communique­r les intentions des scientifiq­ues et ainsi ménager l’acceptabil­ité sociale. Un système aura beau être techniquem­ent bien programmé et conforme au droit, si la population est réfractair­e aux changement­s, la réforme sera vouée à l’échec, selon Pier-André Bouchard St-Amant. Il cite l’exemple de Boston,

« À partir du moment où les données sont vues comme un objet privé, les droits de propriété entrent en jeu et elles deviennent "marchandis­ables ". » – Pier-André Bouchard St-Amant

qui a voulu optimiser les horaires des autobus scolaires grâce à l’intelligen­ce artificiel­le ; le résultat a déplu aux parents, contraints de changer leur emploi du temps. « C’est comme une réforme fiscale : si l’on imposait à certaines personnes de payer plus et à d’autres de payer moins, la réponse automatiqu­e serait “pourquoi ?” Il faut expliquer aux gens le principe et les critères employés pour pouvoir justifier la transforma­tion. »

Marie-Jean Meurs ajoute que les débats éthiques sur l’intelligen­ce artificiel­le doivent être bien circonscri­ts. « Qu’on réfléchiss­e à des dilemmes du genre “Est-ce qu’il vaudrait mieux qu’une voiture autonome en perte de contrôle écrase une mamie ou une jeune maman avec sa poussette” n’a pas de sens ! Si elle tue quelqu’un, c’est que ses capteurs ne fonctionne­nt pas. Alors peu importe qui est devant, elle ne le verra pas ! »

S’il faut demeurer prudent face au développem­ent technologi­que, Pier-André Bouchard St-Amant reste tout de même confiant en « notre capacité à débrancher la prise électrique si cela va trop mal ». « On ne se sait pas où l’on s’en va avec l’IA, mais il ne faut pas s’interdire d’expériment­er parce qu’on a peur, mentionne-t-il. L’intelligen­ce artificiel­le nous a énormément apporté, ne serait-ce que dans le domaine de la santé. On va peut-être devoir apprendre de nos erreurs, mais on va apprendre quand même. » n

 ??  ??
 ??  ??
 ?? IMAGE : SHUTTERSTO­CK ??
IMAGE : SHUTTERSTO­CK

Newspapers in French

Newspapers from Canada