Faut- il ré­gu­ler l'in­tel­li­gence ar­ti­fi­cielle ?

Plu­tôt que de créer un « code de l'in­tel­li­gence ar­ti­fi­cielle » ou une nou­velle per­son­na­li­té ju­ri­dique ( sol­vable ?) pour les sys­tèmes D'IA, une ré­gu­la­tion me­su­rée de L'IA pour­rait faire l'af­faire. Mais la faut- il glo­bale avec un su­per- ré­gu­la­teur de L'IA

Edition Multimédi@ - - La Une -

Par Wins­ton Max­well, avo­cat as­so­cié, Ho­gan Lo­vells, et Da­vid Bou­nie, pro­fes­seur d'éco­no­mie, Te­le­com Pa­ris­tech

L’in­tel­li­gence ar­ti­fi­cielle ( IA) – qui re­groupe plu­sieurs tech­no­lo­gies dont l’ap­pren­tis­sage ma­chine ( ou ap­pren­tis­sage au­to­ma­tique, en an­glais ma­chine lear­ning) – est une forme avan­cée de lo­gi­ciel. Un lo­gi­ciel est sim­ple­ment un en­semble de pro­grammes des­ti­né à faire fonc­tion­ner un sys­tème in­for­ma­tique. Il n’existe pas de ré­gu­la­tion spé­ci­fique dé­diée aux seuls lo­gi­ciels. Faut- il trai­ter L’IA dif­fé­rem­ment ?

Bon équi­libre entre sé­cu­ri­té, prix et uti­li­té

Exa­mi­nons d’abord la ques­tion de la res­pon­sa­bi­li­té ci­vile. Sur le plan éco­no­mique, les règles de res­pon­sa­bi­li­té ci­vile sont des­ti­nées à en­cou­ra­ger le dé­ploie­ment de nou­velles tech­no­lo­gies, tout en s’as­su­rant que ces tech­no­lo­gies s’en­tourent de me­sures de sé­cu­ri­té adé­quates. Si les règles de res­pon­sa­bi­li­té sont trop strictes, cer­taines tech­no­lo­gies utiles pour la so­cié­té ne se­ront pas dé­ployées. Si les règles de res­pon­sa­bi­li­té sont trop laxistes, la tech­no­lo­gie crée­ra des dom­mages pour la po­pu­la­tion dé­pas­sant lar­ge­ment les bé­né­fices de la tech­no­lo­gie. Il faut cher­cher le bon équi­libre. Pour illus­trer, il suf­fit de pen­ser à la voi­ture : une tech­no­lo­gie utile mais re­la­ti­ve­ment dan­ge­reuse car res­pon­sable de mil­liers de morts et de bles­sés par an. Si nous exi­gions un ni­veau de sé­cu­ri­té ab­so­lu, la vi­tesse de chaque voi­ture se­rait bri­dée à 30 km par heure, et la voi­ture se­rait cons­truite comme un char d’as­saut. Mais ce­la ré­dui­rait son uti­li­té et aug­men­te­rait sen­si­ble­ment son prix ! Comme pour la voi­ture, le dé­fi pour L’IA est de trou­ver le bon équi­libre entre me­sures de sé­cu­ri­té, prix et uti­li­té. L’en­tre­prise qui dé­ploie un sys­tème D’IA – par exemple, un construc­teur au­to­mo­bile ou une banque – se­ra in­ci­tée par les règles de res­pon­sa­bi­li­té ci­vile à s’as­su­rer de la sé­cu­ri­té du sys­tème. L’une des par­ti­cu­la­ri­tés des sys­tèmes d’ap­pren­tis­sage ma­chine est leur uti­li­sa­tion de don­nées d’en­traî­ne­ment. Le concep­teur du mo­dèle d’ap­pren­tis­sage four­ni­ra un mo­dèle vierge. Ce mo­dèle ap­pren­dra en­suite en uti­li­sant les don­nées de l’en­tre­prise A. Amé­lio­ré par les don­nées de l’en­tre­prise A, le mo­dèle se nour­ri­ra en­suite des don­nées de l’en­tre­prise B, et ain­si de suite. Lorsque le mo­dèle pro­duit une er­reur, l’ori­gine de l’ano­ma­lie se­ra dif­fi­cile à iden­ti­fier. S’agit- il d’un dé­faut dans le mo­dèle d’ori­gine, ou est- ce que l’ano­ma­lie pro­vient des don­nées d’ap­pren­tis­sage de l’en­tre­prise A ou B ? Il est donc im­por­tant pour chaque en­tre­prise qui dé­ploie un sys­tème D’IA de pré- ci­ser par contrat com­ment ses don­nées se­ront uti­li­sées pour amé­lio­rer le mo­dèle et pré­voir des règles de res­pon­sa­bi­li­té, de sé­cu­ri­té et de par­tage de va­leur re­la­tif au mo­dèle amé­lio­ré. Le mo­dèle de­vient plus in­tel­li­gent grâce aux don­nées d’en­traî­ne­ment ; le pro­prié­taire des don­nées d’en­traî­ne­ment pour­rait donc exi­ger une ré­mu­né­ra­tion. Les contrats de­vront éga­le­ment pré­voir des dis­po­si­tions pour ga­ran­tir que le mo­dèle amé­lio­ré ne peut pas in­di­rec­te­ment ré­vé­ler des don­nées confi­den­tielles de l’en­tre­prise, ou des don­nées à ca­rac­tère per­son­nel conte­nues dans les don­nées d’en­traî­ne­ment. Entre les en­tre­prises, la plu­part des ques­tions de res­pon­sa­bi­li­té se­ront ré­gu­lées par contrat. Les dé­ci­sions d’un sys­tème d’ap­pren­tis­sage au­to­ma­tique sont sou­vent opaques — on ne com­pren­dra pas pour­quoi un sys­tème a dé­ci­dé A au lieu de B. Ce­la pose pro­blème pour l’ap­pli­ca­tion des règles de res­pon­sa­bi­li­té ci­vile et pour la ré­gu­la­tion en gé­né­ral – les tri­bu­naux, ex­perts et ré­gu­la­teurs doivent pou­voir com­prendre a pos­te­rio­ri pour­quoi un sys­tème a com­mis une er­reur afin d’en ti­rer des le­çons et d’al­louer la res­pon­sa­bi­li­té à l’ac­teur ap­pro­prié. De nom­breux tra­vaux sont ac­tuel­le­ment consa­crés aux pro­blèmes de la trans­pa­rence et de l’ « au­di­ta­bi­li­té » des al­go­rithmes, à l’ « ex­pli­ca­bi­li­té » et à la res­pon­sa­bi­li­sa­tion ( ac­coun­ta­bi­li­ty) des dé­ci­sions IA ( 1). Ces tra­vaux ne font pas consen­sus. Sur le thème de la trans­pa­rence et de l’au­di­ta­bi­li­té des al­go­rithmes, deux camps s’af­frontent. Le pre­mier dé­fend l’idée qu’un al­go­rithme pro­prié­taire qui prend des dé­ci­sions de na­ture à cau­ser des pré­ju­dices de­vrait pour­voir être ren­du trans­pa­rent et au­di­té de ma­nière à dé­cou­vrir l’ori­gine des er­reurs, et à pou­voir les cor­ri­ger. La chan­ce­lière d’al­le­magne, An­ge­la Mer­kel, a ré­cem­ment plai­dé pour la trans­pa­rence des al­go­rithmes.

L’eu­rope veut de la trans­pa­rence

En Eu­rope, la trans­pa­rence est éga­le­ment au coeur du rè­gle­ment gé­né­ral sur la pro­tec­tion des don­nées ( RGPD) qui énonce que pour les dé­ci­sions au­to­ma­ti­sées ba­sées sur des don­nées per­son­nelles et qui créent des ef­fets ju­ri­diques, les in­di­vi­dus ont droit à « des in­for­ma­tions utiles concer­nant la lo­gique sous- ja­cente, ain­si que l’im­por­tance et les consé­quences pré­vues de ce trai­te­ment » . Le deuxième camp consi­dère que l’idéal de trans­pa­rence n’a pas de sens car, d’une part, les cher­cheurs sont sou­vent dans l’in­ca­pa­ci­té de com­prendre les ré­sul­tats pro­duits par des al­go­rithmes so­phis­ti­qués ( ré­seaux de neu­rones), et d’autre part, que rendre trans­pa­rents les al­go­rithmes

me­na­ce­rait à terme les in­ves­tis­se­ments et bri­se­rait les se­crets. En France, la Com­mis­sion na­tio­nale de l’in­for­ma­tique et des li­ber­tés ( Cnil) a semble- t- il choi­si son camp en pro­po­sant ré­cem­ment une pla­te­forme na­tio­nale pour au­di­ter les al­go­rithmes. Sur le thème de la dis­cri­mi­na­tion en­suite, les dé­bats éga­le­ment sont ani­més.

Se­cret, dis­cri­mi­na­tion et res­pon­sa­bi­li­té

Des tra­vaux ré­cents aux Etats- Unis ont mon­tré que des al­go­rithmes étaient biai­sés en­vers cer­taines ca­té­go­ries de per­sonnes, et condui­saient donc à des dis­cri­mi­na­tions. L’ori­gi­na­li­té du pré­ju­dice vient ce­pen­dant d’un pro­blème nou­veau lié à L’IA : les al­go­rithmes ont ap­pris à dis­cri­mi­ner à par­tir de don­nées d’en­traî­ne­ment qui étaient biai­sées, ou par simple as­so­cia­tion de va­riables cor­ré­lées entre elles : les per­sonnes d’une cer­taine ori­gine na­tio­nale ou eth­nique ré­sident en ma­jo­ri­té dans cer­tains quar­tiers, etc. Les al­go­rithmes n’ont pas in­ten­tion­nel­le­ment dis­cri­mi­né : dès lors qui est res­pon­sable ? L’en­tre­prise qui uti­lise l’al­go­rithme, celle qui a mis au point l’al­go­rithme, celle qui a en­traî­né l’al­go­rithme ? Outre ces ques­tions qui di­visent, la charge de la preuve se ré­vèle beau­coup plus dif­fi­cile pour les plai­gnants : com­ment prou­ver l’ori­gine de la dis­cri­mi­na­tion ( non- in­ten­tion­nelle) sans un ac­cès à l’al­go­rithme ? En­fin, quand bien même la preuve se­rait éta­blie, com­ment cor­ri­ger le pro­blème s’il est dif­fi­cile de com­prendre com­ment la tech­no­lo­gie IA a pro­duit le ré­sul­tat ? Der­nière ques­tion liée au cas par­ti­cu­lier d’un al­go­rithme cau­sant une dis­cri­mi­na­tion : com­ment cor­ri­ger une dis­cri­mi­na­tion sur le genre, par exemple, s’il est im­pos­sible de col­lec­ter des in­for­ma­tions per­son­nelles sur le genre ( du fait de la pro­tec­tion des don­nées) ? De­vant la com­plexi­té des dé­ci­sions, une autre ques­tion émerge : faut- il créer une per­son­na­li­té ju­ri­dique pour les sys­tèmes D’IA ? Pour que la res­pon­sa­bi­li­té ci­vile puisse fonc­tion­ner, il faut iden­ti­fier une per­sonne res­pon­sable, et cette per­sonne de­vra dis­po­ser de suf­fi­sam­ment de res­sources ou d’as­su­rances pour dé­dom­ma­ger les vic­times. En ma­tière D’IA, la per­sonne res­pon­sable se­ra gé­né­ra­le­ment l’en­tre­prise qui ex­ploite le sys­tème – la banque ou le construc­teur au­to­mo­bile par exemple. Cette per­sonne se­ra gé­né­ra­le­ment res­pon­sable en pre­mière ligne, et se re­tour­ne­ra en­suite contre ses four­nis­seurs du sys­tème IA en amont. L’en­tre­prise ex­ploi­tante se­ra gé­né­ra­le­ment as­su­rée contre les risques de res­pon­sa­bi­li­té ci­vile, et vé­ri­fie­ra que ces four­nis­seurs en amont le sont éga­le­ment. La créa­tion d’une per­son­na­li­té ju­ri­dique pour les sys­tèmes D’IA ne chan­ge­ra rien par rap­port à la si­tua­tion ac­tuelle, car le pro­blème res­te­ra ce­lui de la sol­va­bi­li­té de la per­sonne mo­rale res­pon­sable, et de son ni­veau d’as­su­rance. Les na­vires mar­chands illus­trent bien le point : ils sont cha­cun dé­te­nus par une so­cié­té dé­diée – une so­cié­té par na­vire. Lors d’un nau­frage, la so­cié­té pro­prié­taire du na­vire se­ra gé­né­ra­le­ment in­sol­vable, son seul ac­tif étant le na­vire. L’en­jeu se­ra ce­lui de l’as­su­rance et éven­tuel­le­ment la re­cherche d’autres per­sonnes mo­rales res­pon­sables à tra­vers des théo­ries de res­pon­sa­bi­li­té in­di­recte ( vi­ca­rious lia­bi­li­ty). La créa­tion d’une so­cié­té ou per­sonne mo­rale ad hoc pour les sys­tèmes IA n’avan­ce­rait pas le dé­bat par rap­port à l’exis­tant. Fau­til une ré­gu­la­tion spé­ci­fique de L’IA ? Deux points de vue s’op­posent. Se­lon le pre­mier point de vue, L’IA doit être ré­gu­lée dans son en­semble car les risques pour la so­cié­té tra­versent dif­fé­rents sec­teurs éco­no­miques et peuvent avoir des ef­fets cu­mu­la­tifs né­fastes qui ne se­raient pas vi­sibles par des ré­gu­la­teurs sec­to­riels. Se­lon l’autre point de vue, les risques de L’IA sont étroi­te­ment liés à chaque type d’ex­ploi­ta­tion, et il vaut mieux lais­ser chaque ré­gu­la­teur sec­to­riel trai­ter les risques dans son sec­teur. La ré­gu­la­tion ban­caire s’oc­cu­pe­rait des risques de L’IA dans le sec­teur ban­caire et la ré­gu­la­tion des tran­sports s’oc­cu­pe­rait des risques de L’IA dans les voi­tures au­to­nomes. Un su­per- ré­gu­la­teur de L’IA ne ra­jou­te­rait rien par rap­port aux ré­gu­la­teurs sec­to­riels spé­cia­li­sés, et pire, crée­rait une couche de ré­gu­la­tion po­ten­tiel­le­ment en fric­tion avec la ré­gu­la­tion sec­to­rielle. En ma­tière de ré­gu­la­tion, il faut avan­cer avec pré­cau­tion lors­qu’il s’agit de tech­no­lo­gies en mou­ve­ment. Comme un mé­di­ca­ment, une ré­gu­la­tion peut créer des ef­fets se­con­daires im­pré­vus ( 2). La ré­gu­la­tion de l’in­ter­net a évo­lué de ma­nière pro­gres­sive en s’ap­puyant sur la lé­gis­la­tion exis­tante. L’IA de­vrait suivre le même che­min. Au lieu d’un « code de l’in­tel­li­gence ar­ti­fi­cielle » , il fau­drait pri­vi­lé­gier une sé­rie d’amé­lio­ra­tions de la ré­gle­men­ta­tion exis­tante. Les normes ISO ( 3) en ma­tière de sé­cu­ri­té des vé­hi­cules sont dé­jà en cours de mo­di­fi­ca­tion pour in­té­grer L’IA ( 4). Le ré­gu­la­teur amé­ri­cain de la san­té, la Food & Drug Ad­mi­nis­tra­tion ( FDA), a dé­ve­lop­pé des pro­cé­dures pour ho­mo­lo­guer des dis­po­si­tifs mé­di­caux uti­li­sant L’IA ( 5). Le seul pro­blème lié à cette ap­proche sec­to­rielle est l’ap­pa­ri­tion de risques cu­mu­la­tifs pour la so­cié­té qui échap­pe­raient à la vi­gi­lance des ré­gu­la­teurs sec­to­riels. Est- ce que la gé­né­ra­li­sa­tion de L’IA dans la vie des ci­toyens pour­rait rendre les in­di­vi­dus plus idiots, dé­truire le tis­su so­cial, ou af­fai­blir les ins­ti­tu­tions dé­mo­cra­tiques ? Ce genre de risque ne doit pas être igno­ré, et pour­rait échap­per à la vi­gi­lance des ré­gu­la­teurs sec­to­riels.

Ob­ser­va­toire des ef­fets de L’IA sur la so­cié­té ?

Un ré­cent rap­port de la fon­da­tion World Wide Web ( 6) prend l’exemple des « fake news » pro­pa­gées à tra­vers les ré­seaux so­ciaux : quelle struc­ture faut- il mettre en place pour chan­ger les in­ci­ta­tions des ac­teurs à com­mu­ni­quer des fausses nou­velles sur la pla­te­forme et com­ment ré­pa­rer les pré­ju­dices cau­sés à la so­cié­té ? Com­ment dé­fi­nir et me­su­rer ces pré­ju­dices, et quels ac­teurs sont au fi­nal res­pon­sables ? La Com­mis­sion eu­ro­péenne fa­vo­rise en pre­mier lieu des so­lu­tions d’au­to- ré­gu­la­tion pour li­mi­ter l’im­pact de la dés­in­for­ma­tion sur la so­cié­té. La sur­veillance de ce type de risque plus dif­fus pour­rait être confiée à une ins­ti­tu­tion dé­diée – une sorte d’ob­ser­va­toire des ef­fets de L’IA sur la so­cié­té. L’ob­jec­tif de cette ins­ti­tu­tion se­rait de ti­rer la son­nette d’alarme en cas de re­mon­tée des in­dices de no­ci­vi­té so­ciale, à l’image d’un ca­na­ri dans une mine de char­bon. En­core faut- il dé­fi­nir les in­dices ! @

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.