Quand l’in­tel­li­gence ar­ti­fi­cielle dé­rape

L’actualité - - SOMMAIRE - Par Marc-An­dré Sa­bou­rin Illustration de sé­bas­tien thi­bault

Il est de plus en plus évident que, lais­sée à elle-même, l’in­tel­li­gence ar­ti­fi­cielle adopte nos pires pré­ju­gés sexistes et ra­cistes. Com­ment s’as­su­rer que les ro­bots qui gé­re­ront bien­tôt nos vies le fe­ront avec… hu­ma­ni­té ?

Il est de plus en plus évident que, lais­sée à elle-même, l’in­tel­li­gence ar­ti­fi­cielle adopte nos pires pré­ju­gés sexistes et ra­cistes. Et comme elle est ap­pe­lée à prendre énor­mé­ment de place dans nos vies, elle pour­rait avoir un ef­fet ca­tas­tro­phique sur l’équi­libre de notre société. Com­ment s’as­su­rer que les ro­bots qui gé­re­ront nos vies le fe­ront avec… hu­ma­ni­té ?

Si un en­fant dé­co­rait un bu­reau, il res­sem­ble­rait à ce­lui de Ju­lie Hu­bert, PDG de Work­land. Au moins sept fi­gu­rines de li­cornes égaient la pe­tite pièce aux murs bleus, sans comp­ter l’écri­teau arc­en­ciel « I Be­lieve in Uni­corns », bien en vue dans une bi­blio­thèque. L’en­tre­pre­neure de 40 ans croit réel­le­ment que la créa­ture my­thique existe. Elle as­sure même en avoir dé­jà aper­çu. Après tout, son en­tre­prise uti­lise l’in­tel­li­gence ar­ti­fi­cielle ex­pres­sé­ment pour trou­ver ce­la, des li­cornes.

Pour Ju­lie Hu­bert et l’équipe de Work­land, le mot « li­corne » dé­signe le can­di­dat par­fait, ce­lui qui, en­foui dans la pile de 200 CV, mé­rite de dé­cro­cher le poste. Le dé­ter­rer pren­drait des heures à un hu­main — et en­core fau­drait­il qu’il le re­marque. Mais pour l’al­go­rithme in­tel­li­gent de cette société de re­cru­te­ment mon­tréa­laise, c’est un jeu d’en­fant.

Ses neu­rones nu­mé­riques n’ont be­soin que de quelques se­condes pour ana­ly­ser des mil­liers de can­di­da­tures. CV, test de per­son­na­li­té, de­mandes sa­la­riales, cri­tères d’em­bauche : plus il y a de don­nées, plus pré­cis est le ré­sul­tat. Le lo­gi­ciel at­tri­bue à chaque can­di­dat un pour­cen­tage de com­pa­ti­bi­li­té avec le poste, et l’em­ployeur n’a qu’à convo­quer les meilleurs en en­tre­vue, puis à em­bau­cher sa « li­corne ».

« On est en train de créer le fu­tur », s’en­thou­siasme Ju­lie Hu­bert. Un fu­tur dé­jà pré­sent pour ses clients, dont Cas­cades, Brid­ges­tone et Sa­ni Marc, et pour le­quel la de­mande est si forte que l’en­tre­pre­neure en­vi­sage de dou­bler son équipe de 50 em­ployés d’ici six mois.

Mais vous, se­riez­vous d’ac­cord pour qu’un ro­bot ait un mot à dire sur votre ave­nir pro­fes­sion­nel ? Et sur votre ave­nir tout court ?

Sans même qu’on s’en rende compte, l’in­tel­li­gence ar­ti­fi­cielle — qui dé­signe ici toute technologie qui rem­place le ju­ge­ment hu­main — s’est pro­fon­dé­ment en­ra­ci­née dans nos vies. Ce­la a com­men­cé en ligne, lors­qu’elle a « ap­pris » de nos ha­bi­tudes pour nous re­te­nir quelques se­condes de plus sur Fa­ce­book ou nous vendre da­van­tage de livres sur Ama­zon. Ce­la s’est pour­sui­vi dans notre por­te­feuille, pour ap­prou­ver nos tran­sac­tions ef­fec­tuées avec une carte Mas­ter­card, cal­cu­ler notre cote de cré­dit à Equi­fax ou ajus­ter nos primes se­lon notre conduite sur la route au­près d’In­tact As­su­rance. Au­jourd’hui, les al­go­rithmes nous suivent jus­qu’au club de gym, où Éner­gie Car­dio s’en sert pour dé­tec­ter la perte de mo­ti­va­tion et nous en­cou­ra­ger à suer da­van­tage. Même L’ac­tua­li­té uti­li­se­ra bien­tôt l’in­tel­li­gence ar­ti­fi­cielle (IA) pour gé­rer votre abon­ne­ment !

La pro­chaine étape, c’est le dé­ploie­ment à grande échelle dans les af­faires de l’État. Au fé­dé­ral, au moins trois mi­nis­tères et une agence — Jus­tice, Em­ploi, Im­mi­gra­tion et Santé pu­blique — ex­plorent le po­ten­tiel de l’IA. L’ob­jec­tif à court terme n’est pas de prendre des dé­ci­sions à la place des fonc­tion­naires, mais de les épau­ler dans leurs tâches quo­ti­diennes, en au­to­ma­ti­sant par exemple la re­cherche de ju­ris­pru­dence. Du cô­té du Qué­bec, le mi­nis­tère de la Santé a créé un al­go­rithme pour ai­der les in­fir­mières et les tra­vailleurs so­ciaux à éta­blir les be­soins des pa­tients à do­mi­cile, tan­dis qu’une com­mis­sion sco­laire de la ré­gion de Gran­by se sert de cette technologie pour re­con­naître pré­co­ce­ment les dé­cro­cheurs. Et l’au­tomne der­nier, la Ville de Mon­tréal a lan­cé un ap­pel d’offres pour trou­ver un four­nis­seur de ser­vices en in­tel­li­gence ar­ti­fi­cielle afin de ti­rer pro­fit des don­nées gé­né­rées sur son ter­ri­toire.

Si l’IA charme au­tant les or­ga­ni­sa­tions publiques que pri­vées, c’est parce qu’elle pro­met de faire ga­gner du temps, d’amé­lio­rer les ser­vices et, sur­tout, de ré­duire les coûts. Le pro­blème, c’est que les ré­sul­tats ne sont pas tou­jours au ren­dez­vous. Pire, les dé­ra­pages s’ac­cu­mulent.

Il y a eu Tay, un ro­bot conver­sa­tion­nel créé par Mi­cro­soft en 2016 pour se com­por­ter comme une Amé­ri­caine de 19 ans sur Twit­ter. « Plus vous lui par­lez, plus Tay de­vient in­tel­li­gente », pro­met­tait sa bio sur le site de mi­cro­blo­gage. Ses ga­zouillis sont ra­pi­de­ment pas­sés de « Hel­looooooo world !!! »à« Hit­ler was right I hate the jews » (sic), ce qui a for­cé Mi­cro­soft à mettre un terme à l’ex­pé­rience moins de 24 heures après son dé­but.

Il y a eu l’al­go­rithme de re­cru­te­ment d’Ama­zon, qui de­vait dé­ter­mi­ner les meilleurs can­di­dats à em­bau­cher — un peu comme Work­land, mais en em­ployant une technologie dif­fé­rente. Lors des tests, le ro­bot a mon­tré une pré­fé­rence pour les pro­fils mas­cu­lins, ce qui a pé­na­li­sé les CV uti­li­sant un vo­ca­bu­laire à conso­nance fé­mi­nine, a ré­vé­lé l’agence de presse Reu­ters. Le géant du com­merce en ligne a aban­don­né l’ou­til l’an der­nier, avant qu’il soit uti­li­sé.

Il y a eu MiDAS, qui au­to­ma­ti­sait la dé­tec­tion des fraudes à l’as­su­rance­em­ploi dans l’État du Mi­chi­gan. Le sys­tème a per­mis aux au­to­ri­tés de ré­cu­pé­rer près de 69 mil­lions de dol­lars amé­ri­cains par an, com­pa­ra­ti­ve­ment à 3 mil­lions au­pa­ra­vant. Un vrai suc­cès... jus­qu’à ce qu’une en­quête in­terne ré­vèle que 85 % des 40 195 cas trou­vés par l’al­go­rithme d’oc­tobre 2013 à sep­tembre 2015 étaient de faux po­si­tifs. MiDAS de­meure en usage, mais avec da­van­

tage de su­per­vi­sion hu­maine, et l’État s’est en­ga­gé à rem­bour­ser les vic­times.

Il y a eu COM­PAS, qui éva­lue le risque de ré­ci­dive des cri­mi­nels. Dans de nom­breux États amé­ri­cains, les pré­dic­tions de ce lo­gi­ciel in­fluencent les cau­tions, les condi­tions de pro­ba­tion et même la du­rée des peines de pri­son. Or, une en­quête du site de jour­na­lisme d’en­quête ProPu­bli­ca a ré­vé­lé que l’al­go­rithme au­rait un biais né­ga­tif en­vers les Noirs. Cette conclu­sion est contes­tée par le fa­bri­cant, mais la Cour su­prême du Wis­con­sin n’en a pas moins in­vi­té les juges à uti­li­ser cet ou­til avec une « grande pru­dence ».

Ces exemples montrent que, tout comme dans les meilleures oeuvres de science-fic­tion, les ro­bots ne sont pas neutres et in­faillibles, loin de là. En es­sayant de re­pro­duire le ju­ge­ment hu­main, les al­go­rithmes peuvent ré­pé­ter nos pré­ju­gés. Et lors­qu’ils le font, c’est à une échelle in­éga­lée. Ou­bliez le sexisme et le racisme sys­té­miques ; avec l’in­tel­li­gence ar­ti­fi­cielle, ils me­nacent de de­ve­nir au­to­ma­tiques.

Un peu comme un hu­main, un ro­bot ne

naît pas ra­ciste ; il ap­prend à le de­ve­nir. Et ce­la peut se pro­duire mal­gré les bonnes in­ten­tions de ses créa­teurs, af­firme Ab­hi­shek Gup­ta, in­gé­nieur lo­gi­ciel à Mi­cro­soft et fon­da­teur du Mon­treal AI Ethics Ins­ti­tute, un groupe de re­cherche sur le dé­ve­lop­pe­ment éthique de l’in­tel­li­gence ar­ti­fi­cielle. En bon pé­da­gogue, le pro­gram­meur ex­plique l’in­tro­duc­tion de pré­ju­gés dans les al­go­rithmes à l’aide de pommes et d’oranges.

Ima­gi­nez que vous dé­si­rez un lo­gi­ciel d’in­tel­li­gence ar­ti­fi­cielle ca­pable de dis­tin­guer ces deux fruits, dit-il. Vous de­vrez d’abord mon­trer des images en di­sant « ce­ci est une pomme », « ce­ci est une orange », « ce­ci est une orange », « ce­ci est une pomme » et ain­si de suite. À force d’« en­traî­ne­ment », l’al­go­rithme fi­ni­ra par les re­con­naître lui-même. C’est, dans le jar­gon, de l’ap­pren­tis­sage ma­chine.

« Si vous ne faites pas at­ten­tion et que vous en­traî­nez le sys­tème avec 1 000 oranges, mais seule­ment 10 pommes, il ne se­ra pas ef­fi­cace pour re­con­naître les pommes », dit Ab­hi­shek Gup­ta. Peut-être même les confon­dra-t-il avec des oranges. Dans ce cas, rien de dra­ma­tique. Mais quand un al­go­rithme de re­con­nais­sance vi­suelle confond des Noirs et des go­rilles, comme ce fut le cas dans Google Pho­tos en 2015, c’est une autre his­toire…

Hé­las ! il ne suf­fit pas de mon­trer da­van­tage de pommes — ou de Noirs — pour ré­gler les pré­ju­gés de l’in­tel­li­gence ar­ti­fi­cielle. Les sources de dis­tor­sion sont mul­tiples et, dans la plu­part des cas, sub­tiles, sou­ligne Ab­hi­shek Gup­ta. Pour com­prendre pour­quoi, il suf­fit de re­gar­der notre propre nom­bril. Les don­nées uti­li­sées pour en­traî­ner les al­go­rithmes ne sortent pas du vide : elles pro­viennent de notre société et ren­ferment donc toutes nos qua­li­tés, nos nuances et nos dé­fauts.

En théo­rie, il est pos­sible de fil­trer les don­nées four­nies aux ro­bots pour évi­ter de trans­mettre nos mau­vais plis. Cer­tains élé­ments à ex­clure au mo­ment du trai­te­ment des don­nées sont plus évi­dents que d’autres, tels l’ori­gine ou le sexe, mais la plu­part re­quièrent da­van­tage de vi­gi­lance. Aux États-Unis, par exemple, in­clure les codes pos­taux risque de conduire à des biais ra­ciaux, vu l’ho­mo­gé­néi­té de plu­sieurs quar­tiers. Un phé­no­mène bien do­cu­men­té, ce qui n’em­pêche pas l’er­reur d’être ré­pé­tée…

Une telle si­tua­tion risque da­van­tage de sur­ve­nir lorsque les pro­gram­meurs forment un groupe ho­mo­gène. « Ils

Ou­bliez le sexisme et le racisme sys­té­miques; avec l’in­tel­li­gence ar­ti­fi­cielle, ils me­nacent de de­ve­nir au­to­ma­tiques.

peuvent avoir l’im­pres­sion que leur base de don­nées est re­pré­sen­ta­tive, alors qu’elle ne com­prend en réa­li­té que des gens qui leur res­semblent », ex­plique Ab­hi­shek Gup­ta. C’est pour cette rai­son que de plus en plus de voix ré­clament que l’in­tel­li­gence ar­ti­fi­cielle soit créée par des équipes di­ver­si­fiées, tant sur le plan de l’âge que du sexe et des ori­gines. Si Google avait comp­té da­van­tage d’in­gé­nieurs afro-amé­ri­cains dans ses rangs, peut-être que les ra­tés de son al­go­rithme au­raient été dé­tec­tés avant que ce­lui-ci soit ren­du pu­blic.

Toute la di­ver­si­té du monde ne ré­gle­ra tou­te­fois pas le prin­ci­pal pro­blème de l’in­tel­li­gence ar­ti­fi­cielle, qu’on ou­blie par­fois de­vant l’en­goue­ment qu’elle sus­cite : cette technologie n’est pas en­core au point. « J’écris du code pour faire de l’ap­pren­tis­sage ma­chine tous les jours, dit Ab­hi­shek Gup­ta. Je sais à quel point ces sys­tèmes sont li­mi­tés pour le mo­ment. » Ain­si, trois ans après avoir confon­du Noirs et go­rilles, Google cherche tou­jours une so­lu­tion à ses pro­blèmes de vi­sion. Pour évi­ter les as­so­cia­tions mal­heu­reuses d’ici là, les mots « go­rille » et « per­sonne noire » ont été sup­pri­més du vo­ca­bu­laire de l’al­go­rithme de re­con­nais­sance vi­suelle.

« Ba­se­line, en­suite, en­ri­chis le for­mat

BIO avec le post tag et les spell-checks. » Vous ne com­pre­nez rien ? Moi non plus. Ce­la fait une heure que, as­sis dans un coin du grand bu­reau feu­tré de Syl­vie Rat­té, je tente de suivre la dis­cus­sion entre la pro­fes­seure de l’École de technologie su­pé­rieure et son col­lègue Pierre An­dré Mé­nard, du Centre de re­cherche in­for­ma­tique de Mon­tréal. Je com­prends ce­pen­dant une chose : ils sont pes­si­mistes. « Je ne crois pas aux mi­racles, ex­plique Syl­vie Rat­té. Quand tu n’as pas beau­coup de don­nées, c’est cer­tain que le ré­sul­tat ne se­ra pas fan­tas­tique. »

Le « pas beau­coup de don­nées », ce sont 50 000 rap­ports de la Di­rec­tion de la pro­tec­tion de la jeu­nesse (DPJ) au su­jet de 750 contre­ve­nants. L’ob­jec­tif est d’« en­traî­ner » un al­go­rithme ca­pable de clas­ser, dans une tren­taine de ca­té­go­ries et sous-ca­té­go­ries, cha­cune des in­ter­ven­tions dé­crites, une tâche qui coû­te­rait une for­tune si elle était réa­li­sée par un ex­pert. Le ré­sul­tat, si tout fonc­tionne comme pré­vu, don­ne­ra une vue d’en­semble des forces et fai­blesses d’un groupe d’in­ter­ve­nants de la DPJ à la cri­mi­no­logue Ge­ne­viève Pa­rent, de l’Uni­ver­si­té du Qué­bec en Ou­taouais. Ce­la pour­rait en­suite ser­vir de base à des for­ma­tions pour ai­der les tra­vailleurs à cor­ri­ger leurs la­cunes.

Dire qu’il s’agit d’un pro­jet de re­cherche dé­li­cat est un eu­phé­misme, et pas seule­ment à cause du su­jet. Les sources d’er­reurs sont mul­tiples, à com­men­cer par le fait que les do­cu­ments à ana­ly­ser sont ré­di­gés dans un fran­çais « à la va-comme-je-te-pousse », illustre Pierre An­dré Mé­nard. Il est aus­si pos­sible que des in­ter­ve­nants aient bien tra­vaillé, mais omis de consi­gner tous les dé­tails dans leurs rap­ports, sou­ligne Syl­vie Rat­té. Bref, les ré­sul­tats de l’al­go­rithme se­ront à prendre avec des pin­cettes.

«[les pro­gram­meurs] peuvent avoir l’im­pres­sion que leur base de don­nées est re­pré­sen­ta­tive, alors qu’elle ne com­prend en réa­li­té que des gens qui leur res­semblent.» Ab­hi­shek Gup­ta, in­gé­nieur lo­gi­ciel à Mi­cro­soft et fon­da­teur du Mon­treal AI Ethics Ins­ti­tute

Les deux ex­perts en in­tel­li­gence ar­ti­fi­cielle ont ac­cep­té d’al­ler de l’avant mal­gré tout, car Ge­ne­viève Pa­rent est cons­ciente des li­mites de l’al­go­rithme, et elle uti­li­se­ra cet ou­til en consé­quence. Si son ob­jec­tif avait été de trou­ver et de sanc­tion­ner les mau­vais in­ter­ve­nants de la DPJ, ils au­raient re­fu­sé. En par­tie pour des rai­sons éthiques, mais sur­tout parce que l’IA n’est pas au point pour un tel usage.

Une en­tre­prise pour­rait ce­pen­dant fer­mer les yeux, vo­lon­tai­re­ment ou non, sur les la­cunes de l’IA et com­mer­cia­li­ser un al­go­rithme qui n’est pas prêt, craint Pierre An­dré Mé­nard. « Il est là, le dan­ger. » Heu­reu­se­ment, un nombre gran­dis­sant d’en­tre­prises en ar­rivent à la même conclu­sion.

Il y a un an à peine, per­sonne n’était in­té­res­sé par les ser­vices de Va­len­tine God­dard. Cette avo­cate était pour­tant per­sua­dée d’avoir dé­ni­ché un bon fi­lon en fon­dant Al­liance Im­pact In­tel­li­gence Ar­ti­fi­cielle (AIIA), un ca­bi­net-con­seil mont­réa­lais spé­cia­li­sé dans les im­pli­ca­tions so­ciales, éthiques et po­li­tiques de l’in­tel­li­gence ar­ti­fi­cielle. « Je me bu­tais à beau­coup de portes fer­mées. Di­sons que ce n’est pas avec ça que je ga­gnais ma vie... »

Au­jourd’hui, non seule­ment des en­tre­prises lui ouvrent leurs portes, mais elles viennent co­gner à la sienne. Cer­tains de ses clients ont vu les dé­ra­pages et veulent s’as­su­rer de ne pas être les pro­chains à faire les man­chettes. D’autres sont des in­ves­tis­seurs qui lui de­mandent d’ac­com­pa­gner les jeunes pousses de l’in­tel­li­gence ar­ti­fi­cielle dans les­quelles sont pla­cées leurs billes. « Mes clients com­prennent que né­gli­ger l’éthique pose un risque fi­nan­cier », dit Va­len­tine God­dard. Et de plus en plus de gens, à l’image de l’avo­cate, y voient une oc­ca­sion d’af­faires.

À l’ins­tar du com­merce équi­table et de la nour­ri­ture bio, des or­ga­ni­sa­tions dé­livrent des cer­ti­fi­ca­tions at­tes­tant que les al­go­rithmes ré­pondent à des stan­dards éthiques. L’une d’elles, l’en­tre­prise amé­ri­caine ORCAA, vé­ri­fie les lignes de codes qui donnent vie aux lo­gi­ciels pour s’as­su­rer que tout est en ordre. D’autres en­tre­prises, dont IBM, Google et Mi­cro­soft, créent des ou­tils nu­mé­riques qui dé­tectent les biais dans les don­nées — quoique ce­la se li­mite aux cas les plus simples pour le mo­ment. Dans une dé­li­cieuse tour­nure mé­ta­phy­sique, cer­tains en­traînent même des sys­tèmes d’in­tel­li­gence ar­ti­fi­cielle pour cor­ri­ger les pré­ju­gés de l’in­tel­li­gence ar­ti­fi­cielle.

Le thème de l’éthique de­vient aus­si un in­con­tour­nable dans les confé­rences sur l’IA, et un nombre gran­dis­sant d’entre elles y sont en­tiè­re­ment consa­crées. C’est d’ailleurs au cours d’une de ces ac­ti­vi­tés qu’est née l’ini­tia­tive qui a me­né, le 4 dé­cembre der­nier, au lan­ce­ment de la Dé­cla­ra­tion de Mon­tréal, un texte qui pro­pose 10 grands prin­cipes pour as­su­rer un dé­ve­lop­pe­ment res­pon­sable de l’in­tel­li­gence ar­ti­fi­cielle. Des exemples : vi­ser le bien-être de tous les hu­mains, fa­vo­ri­ser leur au­to­no­mie et éli­mi­ner les dis­cri­mi­na­tions.

La Dé­cla­ra­tion de Mon­tréal se veut une « bous­sole éthique pour tous ceux qui tra­vaillent avec l’IA », dit MarcAn­toine Dil­hac, pro­fes­seur de phi­lo­so­phie à l’Uni­ver­si­té de Mon­tréal et ins­ti­ga­teur de l’ini­tia­tive, à la­quelle se sont joints 12 centres de re­cherche. Ce n’est pas le pre­mier do­cu­ment à vi­ser un tel but, convient-il, mais contrai­re­ment aux tra­di­tion­nels « rap­ports tech­no­cra­tiques », ce­lui-ci est le fruit d’un pro­ces­sus de consul­ta­tions publiques au Qué­bec et en France. « Nos prin­cipes sont do­tés d’une lé­gi­ti­mi­té dé­mo­cra­tique » qui, es­père-t-il, fa­ci­li­te­ra leur adop­tion par les en­tre­prises qui créent l’in­tel­li­gence ar­ti­fi­cielle.

«On n’a pas be­soin d’un cadre éthique.»

Marc-Étienne Oui­mette est avo­cat et di­rec­teur des po­li­tiques publiques et des af­faires gou­ver­ne­men­tales à Ele­ment AI, une jeune pousse mon­tréa­laise en in­tel­li­gence ar­ti­fi­cielle qui a col­lec­té plus de 100 mil­lions de dol­lars au­près d’in­ves­tis­seurs. Une part de cet ar­gent finance une cam­pagne de lob­byisme in­ten­sive au­près d’Ot­ta­wa et de Qué­bec pour faire en­tendre son point de vue, que MarcÉ­tienne Oui­mette n’hé­site pas à ré­pé­ter pu­bli­que­ment : « Ce qu’il nous faut, c’est un cadre ré­gle­men­taire et lé­gis­la­tif. »

Rares sont les en­tre­prises, tous sec­teurs confon­dus, qui ré­clament da­van­tage de règles plu­tôt que moins. Si Ele­ment AI le fait, c’est qu’elle sent s’ef­fri­ter la confiance du pu­blic à l’égard de la technologie. « En ce mo­ment, la per­cep­tion de l’ave­nir de l’in­tel­li­gence ar­ti­fi­cielle est très né­ga­tive. » Dis­cri­mi­na­tion, pertes d’em­plois, sur­veillance ac­crue, concen­tra­tion du pou­voir… Ces craintes, si elles conti­nuent de gros­sir, pour­raient frei­ner l’adop­tion de l’IA — et la crois­sance de la jeune pousse. Mais il existe aus­si un « ave­nir positif », croit l’avo­cat, où la technologie « amé­liore la vie des gens au lieu de vo­ler leurs jobs ». Et une loi per­met­trait « d’éta­blir les ba­lises pour y ar­ri­ver ».

Cer­tains ex­perts pro­posent la créa­tion d’une agence qui, comme Santé Ca­na­da pour les mé­di­ca­ments, ap­prou­ve­rait les al­go­rithmes avant leur mise en mar­ché. D’autres plaident pour une forme d’au­to­ré­gu­la­tion dans la­quelle le pu­blic se­rait par­tie pre­nante. Marc-Étienne Oui­mette, pour sa part, es­time que la meilleure so­lu­tion n’a pas en­core été in­ven­tée.

À court terme, ni Ot­ta­wa ni Qué­bec n’ont l’in­ten­tion de lé­gi­fé­rer. Au cours de 2019, le fé­dé­ral pu­blie­ra tou­te­fois une « di­rec­tive sur les pro­ces­sus dé­ci­sion­nels au­to­ma­ti­sés », afin d’en­ca­drer l’uti­li­sa­tion de l’in­tel­li­gence ar­ti­fi­cielle à l’in­té­rieur de l’ap­pa­reil gou­ver­ne­men­tal. L’ob­jec­tif est de pro­fi­ter du « po­ten­tiel énorme de cette technologie, tout en s’as­su­rant que l’éthique et les va­leurs ca­na­diennes sont res­pec­tées », ex­plique Alex Be­nay, di­ri­geant prin­ci­pal de l’in­for­ma­tion du Ca­na­da, qui pi­lote le dos­sier.

Vous vous sou­ve­nez que le fé­dé­ral ex­plore en ce mo­ment de quelle fa­çon l’IA pour­rait épau­ler ses fonc­tion­naires dans leurs tâches ? Il semble qu’Ot­ta­wa ira bien­tôt beau­coup plus loin. La di­rec­tive que pré­pare l’équipe d’Alex Be­nay, dont L’ac­tua­li­té a pu consul­ter une ébauche, spé­ci­fie que les gens de­vront être avi­sés lors­qu’un ro­bot dé­ci­de­ra de leur sort et qu’ils au­ront droit à « une ex­pli­ca­tion si­gni­fi­ca­tive » du rai­son­ne­ment de la ma­chine. Dans les cas où l’en­jeu est éle­vé, telle une de­mande de ci­toyen­ne­té, la der­nière dé­ci­sion de­vra obli­ga­toi­re­ment être prise par un hu­main.

Le do­cu­ment pré­cise éga­le­ment que le code source des al­go­rithmes uti­li­sés par le fé­dé­ral de­vra être ren­du pu­blic afin que toute per­sonne in­té­res­sée puisse dis­sé­quer ces ro­bots à la re­cherche de dé­fauts. Cette vo­lon­té risque néan­moins de se bu­ter à l’Ac­cord États-Unis–Mexique– Ca­na­da, qui rem­pla­ce­ra l’Ac­cord de libre-échange nord-amé­ri­cain. L’une des nou­velles clauses sti­pule en ef­fet qu’au­cun État « ne peut exi­ger le trans­fert ou l’ac­cès au code source d’un lo­gi­ciel » avant que ce­lui-ci soit im­por­té ou uti­li­sé sur son ter­ri­toire. Un « or­gane ré­gu­la­teur » pour­rait y ac­cé­der dans le cadre d’une « ins­pec­tion » ou d’une « en­quête », mais uni­que­ment sous ga­ran­tie que son conte­nu ne se­ra pas dé­voi­lé à d’autres par­ties, ce qui com­prend le pu­blic.

Pour Ju­lie Hu­bert, de Work­land, ex­po­ser le code source de son al­go­rithme de re­cru­te­ment est hors de ques­tion. « Ça re­vien­drait à don­ner nos in­no­va­tions à la concur­rence. » Par contre, les can­di­dats peuvent consul­ter un rap­port dé­taillant pour­quoi le lo­gi­ciel les juge com­pa­tibles ou non avec le poste. Une in­for­ma­tion plus utile, pour le com­mun des mor­tels, que des lignes de Py­thon.

L’en­tre­pre­neure est d’ailleurs plus que cons­ciente des dan­gers qui dé­coulent de l’au­to­ma­ti­sa­tion des dé­ci­sions, et son équipe di­ver­si­fiée — hommes, femmes, jeunes et vieux, qui re­pré­sentent en­semble 15 na­tio­na­li­tés dif­fé­rentes ! — prend ré­gu­liè­re­ment du re­cul pour s’as­su­rer que le sys­tème n’a pas d’angle mort sur le plan éthique. « La der­nière chose que je veux, c’est in­tro­duire da­van­tage de biais. »

Da­van­tage ? Oui, car les pré­ju­gés sont ar­ri­vés dans le monde de l’em­ploi bien avant l’in­tel­li­gence ar­ti­fi­cielle, rap­pelle Ju­lie Hu­bert. « Des clients qui m’ont de­man­dé d’en­voyer seule­ment des can­di­dats avec un nom qué­bé­cois, j’en ai eu... »

Somme toute, l’en­tre­pre­neure est per­sua­dée que sa technologie a le po­ten­tiel d’éli­mi­ner ou, à tout le moins, de di­mi­nuer la dis­cri­mi­na­tion à l’em­bauche. « Si Mo­ha­med est com­pa­tible à 91 % avec le poste, et Pierre à 70 %, ça force l’em­ployeur à ré­flé­chir. » Avec un peu de chance, il ou­vri­ra les yeux et aper­ce­vra une li­corne.

Cer­tains ex­perts pro­posent la créa­tion d’une agence qui ap­prou­ve­rait les al­go­rithmes avant leur mise en mar­ché.

Newspapers in French

Newspapers from Canada

© PressReader. All rights reserved.