Aux in­tel­li­gences ar­ti­fi­cielles, une « éthique IA »

Les in­tel­li­gences ar­ti­fi­cielles ( IA) fas­cinent et semblent fa­ci­li­ter nos vies. Pour­tant, elles nour­rissent aus­si des craintes et de vé­ri­tables ques­tion­ne­ments quant à leur im­pact sur la so­cié­té, voire l’hu­ma­ni­té. L’éthique peut consti­tuer l’un des pi­lier

Edition Multimé[email protected] - - La Une - Par Ma­has­ti Ra­za­vi, as­so­cié gé­rant, et Lau­ra Zie­gler, avo­cat se­nior, Au­gust De­bou­zy

Il existe une dis­tinc­tion entre des IA dites « faibles » et des IA dites « fortes » . L’IA faible per­met de re­pro­duire, le plus fi­dè­le­ment pos­sible, à l’aide d’un pro­gramme in­for­ma­tique, le ré­sul­tat d’un com­por­te­ment spé­ci­fique pré­vu à l’avance, dans la ma­jo­ri­té des cas de fa­çon bien plus ef­fi­cace et ra­pide que l’homme, mais sans au­cune forme d’im­pro­vi­sa­tion. Si elle peut si­mu­ler le rai­son­ne­ment, in­clure une di­men­sion ap­pre­nante et ré­soudre des pro­blèmes, ce type d’in­tel­li­gence ar­ti­fi­cielle ne per­met en au­cun cas de re­pro­duire les fonc­tions cog­ni­tives de l’in­tel­li­gence hu­maine.

IA « faible » : source de pré­oc­cu­pa­tions

Chat­bots, ou­tils de re­con­nais­sance vo­cale ( As­sis­tant/ Google, Cor­ta­na/ Mi­cro­soft, Si­ri/ Apple, Alexa/ Ama­zon) ou de re­con­nais­sance d’images, ou en­core ro­bo­tique : cette forme D’IA « faible » est celle qui nous ac­com­pagne dans notre vie de tous les jours. A cette IA « faible » est op­po­sée une « IA forte » , qui se­rait non seule­ment ca­pable de re­pro­duire des ap­ti­tudes à la ré­flexion et à l’in­ter­ac­tion in­tel­li­gente ( ana­lyse, rai­son­ne­ment, ac­tions ra­tion­nelles), mais pour­rait en outre com­prendre son propre fonc­tion­ne­ment et avoir ain­si une réelle « conscience » d’elle- même. A cette étape, l’in­tel­li­gence de la ma­chine dé­pas­se­rait donc celle de l’homme dans tous les do­maines, y com­pris dans la créa­ti­vi­té et dans l’agi­li­té so­ciale. Si L’IA forte fait l’ob­jet d’une pré­oc­cu­pa­tion lé­gi­time en termes d’éthique, il n’en de­meure pas moins que L’IA « faible » doit éga­le­ment nous in­ter­pel­ler à cet égard. Dans ce cadre, l’éthique ap­pa­raît comme un en­jeu ma­jeur pour pen­ser et dé­ve­lop­per une IA res­pon­sable. L’une des pre­mières sources d’in­quié­tude et de ques­tion­ne­ments se concentre au­tour de l’ef­fet per­vers des al­go­rithmes et de L’IA pou­vant ré­per­cu­ter et sur­tout am­pli­fier un cer­tain nombre de dis­cri­mi­na­tions. En ef­fet, si L’IA per­met un trai­te­ment plus ef­fi­cace de la don­née et a prio­ri plus ob­jec­tif de la don­née, l’al­go­rithme est tou­jours le re­flet d’un sys­tème de va­leurs et de choix de so­cié­té, à tra­vers son pa­ra­mé­trage, ou ses don­nées d’ap­pren­tis­sage. Aus­si, les cri­tères sur les­quels re­posent les sys­tèmes pré­dic­tifs peuvent être à l’ori­gine de la re­pro­duc­tion et/ ou de l’ac­cen­tua­tion d’in­éga­li­tés, de phé­no­mènes d’ex­clu­sions et de dis­cri­mi­na­tion, gé­né­ra­le­ment cau­sés par des biais cog­ni­tifs ( 1). Ces biais peuvent af­fec­ter di­rec­te­ment ou in­di­rec­te­ment les al­go­rithmes ( dès leur concep­tion ou parce qu’ils n’au­ront pas été as­sez en­traî­nés) mais en­core les don­nées in­té­grées dans le sys­tème ou gé­né­rées par ce­lui- ci ( manque de di­ver­si­té des bases de don­nées d’ap­pren­tis­sage, par exemple). Un al­go­rithme per­met­tant le fonc­tion­ne­ment d’un ou­til de re­con­nais­sance fa­ciale, s’en­traî­nant sur une base de don­nées qui ne se­rait pas as­sez di­verse, peut ain­si pré­sen­ter des dé­faillances dans la re­con­nais­sance de vi­sages. Autre illus­tra­tion : les biais de genre ré­vé­lés par la pla­te­forme pu­bli­ci­taire de Google, Ad­sense, par la­quelle les femmes se voyaient pro­po­ser des offres d’em­ploi bien moins ré­mu­né­rées que celles adres­sées aux hommes, à un ni­veau si­mi­laire de qua­li­fi­ca­tion et d’ex­pé­rience. Les al­go­rithmes de pré­dic­tion, qui pré­sentent aus­si des risques d’ex­clu­sions, peuvent per­mettre aux en­tre­prises d’an­ti­ci­per les com­por­te­ments ou les ten­dances de com­por­te­ment de leurs clients, et d’au­to­ma­ti­ser en grande par­tie cer­tains pro­ces­sus ou d’ai­der à la prise de dé­ci­sion ( 2). Cette au­to­ma­ti­sa­tion et cette dy­na­mique de per­son­na­li­sa­tion des offres et des ser­vices peuvent na­tu­rel­le­ment avoir pour ef­fet d’ex­clure l’ac­cès de cer­taines per­sonnes à ces ser­vices. C’est d’ailleurs l’une des rai­sons pour la­quelle ce su­jet a été très stric­te­ment en­ca­dré par la lé­gis­la­tion ap­pli­cable en ma­tière de don­nées à ca­rac­tère per­son­nel et ren­for­cée avec l’en­trée en ap­pli­ca­tion du RGPD ( 3). L’ef­fet al­go­rith­mique qui consiste à clas­ser et à fil­trer des don­nées, ana­ly­sées en grande masse, est éga­le­ment un su­jet pré­oc­cu­pant : ces al­go­rithmes ap­pre­nants ana­ly­sant nos com­por­te­ments au­ront ten­dance à nous pro­po­ser constam­ment des ob­jets ( en fonc­tion des achats ef­fec­tués et des pré­dic­tions de nos fu­turs be­soins), des per­sonnes ( nos amis vi­sibles sur les ré­seaux so­ciaux), des cultures ( pro­fi­lage « Net­flix » ) conformes à nos goûts.

Risque d’en­fer­me­ment al­go­rith­mique

Ce­la n’au­ra- t- il pas pour ef­fet de nuire à un cer­tain plu­ra­lisme et plus gé­né­ra­le­ment à la di­ver­si­té cultu­relle ? A l’échelle de la so­cié­té, ce phé­no­mène pour­rait consti­tuer – no­tam­ment en ma­tière po­li­tique – un dan­ger pour la qua­li­té du dé­bat pu­blic, la di­ver­si­té de l’in­for­ma­tion et plus gé­né­ra­le­ment le fonc­tion­ne­ment de notre dé­mo­cra­tie.

Alors que L’IA in­ves­tit même les ré­dac­tions jour­na­lis­tiques et per­met de trai­ter un grand nombre d’in­for­ma­tions, de ré­di­ger au­to­ma­ti­que­ment cer­tains ar­ticles ou en­core de faire de la veille d’ac­tua­li­té, la mise en place – dans ce cadre pré­cis – d’une IA res­pon­sable et éthique per­met­tant d’évi­ter cet en­fer­me­ment al­go­rith­mique, de lut­ter contre les fakes news, de res­pec­ter les en­ga­ge­ments de di­ver­si­té, de plu­ra­lisme et de dé­on­to­lo­gie de l’in­for­ma­tion pa­raît là en­core in­dis­pen­sable.

Equi­libre entre trai­te­ment et ac­cès

En outre, L’IA im­pli­quant l’uti­li­sa­tion mas­sive des don­nées à des fins d’ap­pren­tis­sage, elle pose là en­core de nom­breuses in­ter­ro­ga­tions sur l’équi­libre entre le trai­te­ment et l’ac­cès aux don­nées par les ac­teurs de L’IA et la pro­tec­tion des don­nées à ca­rac­tère per­son­nel et des droits des per­sonnes concer­nées. Sans al­go­rithme, les don­nées sont muettes, et sans don­née, l’al­go­rithme est aveugle. A ce su­jet, les prin­cipes de « mi­ni­mi­sa­tion des don­nées » , l’en­ca­dre­ment du pro­fi­lage, de la prise de dé­ci­sion ex­clu­si­ve­ment au­to­ma­ti­sée et les obli­ga­tions de trans­pa­rence fi­gu­rant dans le RGPD marquent dé­jà les pre­mières bases d’une tech­no­lo­gie sou­hai­tée plus res­pon­sable et res­pec­tueuse des droits et li­ber­tés des in­di­vi­dus, même si ce n’est pas sans gé­né­rer de nom­breuses dif­fi­cul­tés en pra­tique. Plus gé­né­ra­le­ment, la re­cherche de ce point d’équi­libre entre la né­ces­saire pro­tec­tion des li­ber­tés in­di­vi­duelles et le dé­ve­lop­pe­ment li­bé­ré d’une tech­no­lo­gie utile pour l’homme nour­rit l’en­semble des ré­flexions au­tour de L’IA. S’il n’existe pas au­jourd’hui de cadre ju­ri­dique glo­bal et dé­ter­mi­né per­met­tant de prendre en compte toute la com­plexi­té de ces nou­velles tech­no­lo­gies in­tel­li­gentes, les prin­ci­pales pro­blé­ma­tiques ju­ri­diques en ma­tière no­tam­ment de pro­prié­té in­tel­lec­tuelle, de res­pon­sa­bi­li­té, de pro­tec­tion des don­nées à ca­rac­tère per­son­nel peuvent être au­jourd’hui tout à fait en­ca­drées par les textes exis­tants. Parce qu’il s’agit par na­ture d’une tech­no­lo­gie en mou­ve­ment, il nous semble « urgent de ne rien faire ! » et sou­hai­table que L’IA s’ap­puie sur la ré­gu­la­tion exis­tante et évo­lue de ma­nière pro­gres­sive avec celle- ci. Les règles et les li­mites qui lui sont ap­pli­cables peuvent être par ailleurs conçues, dans un pre­mier temps, de ma­nière non contrai­gnante, telle une soft law de plus, afin d’at­teindre une cer­taine ma­tu­ri­té. C’est ici tout le sens de l’éthique pen­sée comme une mé­thode al­ter­na­tive aux ré­gu­la­tions, per­met­tant de dé­clen­cher les consciences in­di­vi­duelles et col­lec­tives, de­ve­nue ou­til d’ac­com­pa­gne­ment du droit. L’éthique est consti­tuée par un en­semble de normes édic­tées par l’in­dus­trie aux­quelles celle- ci choi­sit de don­ner une force contrai­gnante. Le conte­nu de ces normes peut re­prendre en par­tie le droit exis­tant, mais éga­le­ment al­ler bien au- de­là. C’est en ce sens que s’est po­si­tion­née la Cnil ( 4) dans son rap­port, pu­blié le 15 dé­cembre 2017, sur les en­jeux éthiques des al­go­rithmes et de L’IA ( 5). Elle a dé­cli­né six re­com­man­da­tions opé­ra­tion­nelles dans ce do­maine – pla­çant l’éthique au coeur de celles- ci en in­sis­tant no­tam­ment sur la né­ces­si­té de : for­mer à l’éthique tous les ac­teurs­maillons de la chaîne al­go­rith­mique, rendre les al­go­rithmes com­pré­hen­sibles, consti­tuer une pla­te­forme na­tio­nale d’au­dit des al­go­rithmes, en­cou­ra­ger la re­cherche sur L’IA éthique ; et ren­for­cer la fonc­tion éthique au sein des en­tre­prises ( 6). L’éthique ap­pa­raît dé­sor­mais comme un en­jeu cru­cial et un ou­til in­dis­pen­sable pour sen­si­bi­li­ser les uti­li­sa­teurs mais éga­le­ment ceux qui contri­buent à la concep­tion et la com­mer­cia­li­sa­tion de ces sys­tèmes D’IA aux en­jeux at­ta­chés à son usage. Cette prise de conscience est très pré­sente no­tam­ment chez les pro­fes­sion­nels du sec­teur pri­vé qui ont in­té­gré l’éthique au coeur de leurs trans­for­ma­tions di­gi­tales ( lire en­ca­dré ci- des­sous). A ce jour, le dé­ve­lop­pe­ment d’une IA éthique semble être à l’évi­dence por­té par une ré­gu­la­tion al­ter­na­tive, choi­sie et sec­to­rielle, à la re­cherche d’une gou­ver­nance adap­tée. Elle né­ces­si­te­ra tou­te­fois iné­vi­ta­ble­ment une mo­bi­li­sa­tion in­ter­na­tio­nale d’am­pleur, ou à tout le moins eu­ro­péenne, pour per­mettre l’identification des grand en­jeux de so­cié­té et évi­ter l’émer­gence d’éven­tuelles dé­rives : un « shop­ping éthique » ( 7) ou en­core un nou­veau phé­no­mène d’ « Ethic­wa­shing » ( 8). L’IA éthique pour­rait au contraire consti­tuer la clé de l’at­trac­ti­vi­té des en­tre­prises, puis des Etats conscients de son im­por­tance pour leur lea­der­ship en ma­tière d’in­no­va­tion. @

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.