Per­son­na­li­té in­ter­na­tio­nale

– Pe­ter Asa­ro, spé­cia­liste en éthique de l’in­tel­li­gence ar­ti­fi­cielle

Les Affaires - - Billet / Sommaire - Diane Bé­rard diane.be­rard@tc.tc Chro­ni­queur | C @@ dia­ne_­be­rard

Pe­ter Asa­ro, spé­cia­liste en éthique de l’in­tel­li­gence ar­ti­fi­cielle

DIANE BÉ­RARD – Mon­tréal de­vient un pôle d’ex­cel­lence en in­tel­li­gence ar­ti­fi­cielle (IA). Mal­gré notre en­thou­siasme, y a-t-il des choses que nous de­vons ne pas perdre de vue?

PE­TER ASA­RO – Ef­fec­ti­ve­ment, il faut se rap­pe­ler que nous ne sommes pas en pré­sence d’ob­jets conscients. L’IA et les ro­bots ne sont que des al­go­rithmes so­phis­ti­qués, des or­di­na­teurs de luxe ( fan­cy com­pu­ters). Pour l’ins­tant, ils n’éli­minent pas les biais de prise de dé­ci­sion, ils les in­tègrent. Pre­nons un al­go­rithme qui dé­ter­mine les sa­laires. Il ap­pren­dra ra­pi­de­ment que les sa­laires des femmes sont plus faibles que ceux ac­cor­dés aux hommes. Lorsque le can­di­dat se­ra une femme, l’al­go­rithme pro­po­se­ra un sa­laire plus faible que s’il s’agis­sait d’un homme. On peut aus­si par­ler de l’ap­pren­tis­sage au­to­ma­tique ( ma­chine lear­ning). Ce n’est pas ma­gique. Pour l’ins­tant, les ma­chines n’ap­prennent pas. Si vous les pro­gram­mez cor­rec­te­ment, elles ar­rivent à re­con­naître une si­gna­ture ou un ob­jet dans un en­semble. Ce­pen­dant, une ma­chine ne com­prend pas ce qui se passe dans l’image. Pour l’ins­tant, elle ne sai­sit pas le contexte. On ignore, par exemple, comment se com­por­te­ront les vé­hi­cules sans conduc­teur lors de cir­cons­tances im­pré­vues pour les­quelles ils n’ont pas été pro­gram­més.

D.B. – Quels en­jeux éthiques sont liés aux li­mites ac­tuelles de l’IA et de la ro­bo­tique?

P.A. – Des en­jeux éthiques sur­gissent chaque fois que les dé­ci­sions de l’al­go­rithme ou du ro­bot in­fluent sur la vie des hu­mains. Voi­ci quelques exemples : quand on vous re­fuse un emploi, une hy­po­thèque, l’ac­cès au cré­dit, l’en­trée à l’uni­ver­si­té, etc. Il de­vrait y avoir un ju­ge­ment mo­ral et une res­pon­sa­bi­li­té lé­gale liée à cha­cune des dé­ci­sions pré­cé­dentes. C’est im­pos­sible si la dé­ci­sion a été prise par un sys­tème in­for­ma­tique. Un sys­tème n’est pas un agent mo­ral.

D.B. – Pour­quoi la pro­gram­ma­tion mo­rale est-elle dif­fi­cile?

P.A. – La plu­part des hu­mains se com­portent de fa­çon mo­rale parce qu’ils gèrent le risque. Ils se pro­jettent dans le fu­tur et savent que cer­tains com­por­te­ments sont liés à cer­taines consé­quences désa­gréables. Ils savent qu’ils por­te­ront la res­pon­sa­bi­li­té de leurs dé­ci­sions. Pour l’ins­tant, nous n’avons pas trou­vé la fa­çon de créer cette as­so­cia­tion dans l’uni­vers de l’IA et des ro­bots.

D.B. – Quelles sont les trois com­po­santes liées à l’éthique des ro­bots?

P.A. – D’abord, le sys­tème éthique que l’on in­clut dans le ro­bot lui-même. En­suite, l’éthique des gens qui des­sinent et uti­lisent les ro­bots. En­fin, l’éthique de la fa­çon dont on traite les ro­bots.

D.B. – Par­lons plus pré­ci­sé­ment des sys­tèmes au­to­nomes. De quoi s’agi­til et pour­quoi posent-ils pro­blème?

P.A. – Un sys­tème au­to­nome n’est pas contrô­lé à dis­tance par un hu­main. Il est pro­gram­mé par un hu­main donc il a dé­jà obéi à des com­mandes hu­maines, mais il prend dé­sor­mais ses propres dé­ci­sions. Nous n’en sommes pas en­core là, mais on s’en ap­proche. Ima­gi­nons un peu les consé­quences d’un sys­tème au­to­nome em­ployé dans le sec­teur mi­li­taire. Ce sys­tème choi­si­rait lui-même ses cibles ain­si que le mo­ment de ti­rer. Il en irait de même pour les vé­hi­cules au­to­nomes. Ou des drones. Pour l’ins­tant, il de­meure en­core une forme de sur­veillance hu­maine et de pos­si­bi­li­té d’in­ter­ven­tion.

D.B. – Le spectre d’uti­li­sa­tion de l’IA et des ro­bots est vaste, les consé­quences aus­si. Donnez-nous des exemples.

P.A. – Vous pour­riez y perdre un or­teil... ou toute votre for­tune! Si l’oeil ma­gique qui ac­tionne la porte du ma­ga­sin est dé­ré­glé, votre or­teil pour­rait y pas­ser. Ima­gi­nons main­te­nant que l’al­go­rithme du sys­tème ex­pert qui dicte l’achat et la vente d’ac­tions d’une grande firme de cour­tage se dé­règle et en­clenche une sé­rie d’opé­ra­tions er­ra­tiques. Cette ac­ti­vi­té est cap­tée et re­pro­duite par d’autres al­go­rithmes d’autres firmes de cour­tage. La pa­nique s’ins­talle dans le mar­ché bour­sier. Ce risque de conta­gion est bien réel. Les sys­tèmes au­to­nomes com­mu­niquent entre eux.

D.B. – Il faut évi­ter « la boîte noire » de l’IA, in­sis­tez-vous. Mais comment?

P.A. – Le dé­fi consiste à créer des al­go­rithmes que l’on peut ex­pli­quer aux ci­toyens vi­sés par les dé­ci­sions. Or, les en­tre­prises qui em­ploient ces al­go­rithmes ré­sistent. Elles in­sistent sur la pro­prié­té de leurs sys­tèmes. Et puis, au­cune en­tre­prise n’uti­lise les mêmes al­go­rithmes. Les au­to­ri­tés ré­gle­men­taires doivent in­ter­ve­nir. À ce cha­pitre, l’Union eu­ro­péenne est en avance. En 2018, une loi se­ra mise en oeuvre pour dé­fendre le « droit à l’ex­pli­ca­tion » du client. Aux États-Unis, la res­pon­sa­bi­li­té ap­par­tient, en par­tie, au Fair Cre­dit Re­por­ting Act. Lors­qu’un or­ga­nisme comme Equi­fax ou Trans-Union porte un ju­ge­ment sur votre ca­pa­ci­té de cré­dit, il doit ex­pli­quer pour­quoi. Les ré­ponses sont tou­te­fois sou­vent su­per­fi­cielles. On vous dit, « Vous dé­te­nez trop de cartes de cré­dit » ou « Vous n’ha­bi­tez pas votre mai­son de­puis as­sez long­temps ». De fa­çon gé­né­rale, aux États-Unis, les au­to­ri­tés comptent sur les en­tre­prises pour se ré­gu­ler elles-mêmes. En Eu­rope, on se montre plus in­ter­ven­tion­niste.

D.B. – Vous sug­gé­rez que les or­ga­nismes ré­gle­men­taires re­crutent des spé­cia­listes de l’IA...

P.A. – Ce­la me pa­raît in­con­tour­nable. Lorsque les en­jeux de­viennent aus­si com­plexes, les au­to­ri­tés ré­gle­men­taires ne peuvent comp­ter uni­que­ment sur des ex­perts lé­gaux pour les gui­der.

D.B. – Nous avons l’ha­bi­tude d’être sui­vis à la trace sur In­ter­net. Avec l’IA, nous sommes sur­veillés aus­si dans l’uni­vers phy­sique...

P.A. – La no­tion de vie pri­vée dis­pa­raît un peu plus chaque jour. Au­pa­ra­vant, des ca­mé­ras en cir­cuit fer­mé cap­taient des images de votre pas­sage dans un lieu pu­blic, une bou­tique par exemple. Aujourd’hui et demain, des drones vo­lants, qui livrent des co­lis par exemple, captent des images de votre cour ar­rière sur leur par­cours. Ces images sont très fa­ciles à re­trou­ver. Nous ne sommes plus en cir­cuit fer­mé. Il faut aus­si men­tion­ner des ro­bots per­son­nels, comme Alexa, l’as­sis­tant per­son­nel in­tel­li­gent dé­ve­lop­pé par Ama­zon. Alexa peut, entre autres, vous don­ner la mé­téo, ré­gler vos alarmes et contrô­ler plu­sieurs ap­pa­reils in­tel­li­gents dans votre mai­son. Vos de­mandes sont en­voyées, par In­ter­net, à un tiers qui les in­ter­prètent et passe une com­mande.

D.B. – Quelle est votre po­si­tion per­son­nelle par rap­port aux per­cées de l’IA et de la ro­bo­tique?

P.A. – Je me dé­fi­nis comme un op­ti­miste prag­ma­tique. Je re­con­nais les pro­messes de pros­pé­ri­té et de pro­duc­ti­vi­té de la tech­no­lo­gie. Ce­pen­dant, on ne peut pas – on ne doit pas – ver­ser dans la fa­ci­li­té et prendre des rac­cour­cis au nom de ces pro­messes. Il y a des dis­cus­sions et des dé­li­bé­ra­tions à me­ner avant d’al­ler trop loin. Il n’est pas uni­que­ment ques­tion de rendre l’IA plus puis­sante, mais aus­si de la rendre plus per­ti­nente so­cia­le­ment. Quelle sorte de société vou­lons-nous? Quel ni­veau de vie pri­vée sou­hai­tons­nous? Ce qui me ras­sure, c’est qu’on voit émer­ger de nou­veaux concepts comme l’IA sé­cu­ri­taire ( safe AI) et l’IA bé­né­fique so­cia­le­ment ( so­cial­ly be­ne­fi­cial). Et on voit s’or­ga­ni­ser des confé­rences comme le Fo­rum sur le dé­ve­lop­pe­ment so­cia­le­ment res­pon­sable de l’in­tel­li­gence ar­ti­fi­cielle.

Les 2 et 3 no­vembre der­niers, Mon­tréal a ac­cueilli le Fo­rum sur le dé­ve­lop­pe­ment so­cia­le­ment res­pon­sable de l’in­tel­li­gence ar­ti­fi­cielle. Pe­ter Asa­ro, phi­lo­sophe et cher­cheur en science, tech­no­lo­gie et mé­dia était par­mi les confé­ren­ciers. Il est éga­le­ment pro­fes­seur as­so­cié à The New School, une des meilleures uni­ver­si­tés au monde en sciences hu­maines et so­ciales.

Newspapers in French

Newspapers from Canada

© PressReader. All rights reserved.