LA FIN DU TRA­VAIL HU­MAIN ? Mon as­sis­tant le ro­bot Lau­rence De­vil­lers

Sur la foi d’études et vu la ma­nière dont l’in­tel­li­gence ar­ti­fi­cielle est pré­sen­tée dans cer­tains mé­dias, l’in­quié­tude gran­dit quant au fu­tur de nos em­plois. À tort ! Étant don­né l’état ac­tuel des tech­no­lo­gies, le ro­bot doit être consi­dé­ré comme un as­sist

La Recherche - - CONTENTS - Par Lau­rence De­vil­lers

Une ma­ni­fes­ta­tion de l’in­tel­li­gence est l a ca­pa­ci­té d’un agent à in­ter­agir avec son en­vi­ron­ne­ment. L’in­tel­li­gence « ar­ti­fi­cielle » (IA) fait ré­fé­rence à la ca­pa­ci­té d’une ma­chine à re­pro­duire ces ca­pa­ci­tés d’in­ter­ac­tion que sont la per­cep­tion, la co­gni­tion et l’ac­tion. Le terme « ro­bot » est uti­li­sé pour dé­si­gner un ro­bot à forme hu­maine ou ani­male, mais aus­si un agent lo­gi­ciel au­to­ma­tique in­ter­agis­sant avec des ser­veurs in­for­ma­tiques. Les ro­bots uti­lisent un grand nombre de pro­grammes d’IA. Nous sommes au dé­but de la ré­vo­lu­tion de l’in­tel­li­gence ar­ti­fi­cielle. Et pour­tant, le mou­ve­ment trans­hu­ma­niste, fervent par­ti­san de cette ré­vo­lu­tion, nous fait mi­roi­ter l’im­mor­ta­li­té et la « su­pe­rin­tel­li­gence » des ma­chines. Cer­tains hommes d’af­faires, tel Elon Musk, pré­disent un ave­nir où l’IA pren­dra le pou­voir sur les hu­mains. Dans les mé­dias, cette ré­vo­lu­tion est pré­sen­tée de telle ma­nière que l’on a l’im­pres­sion que lo­gi­ciels et ro­bots vont se sub­sti­tuer au tra­vail hu­main. Ces pro­phé­ties ne font qu’at­ti­ser les peurs au­tour de la des­truc­tion des em­plois. Max Teg­mark, cher­cheur au MIT et l’un des fon­da­teurs de l’as­so­cia­tion Fu­ture of Life Ins­ti­tute, fait d’ailleurs de cet en­jeu la ques­tion la plus im­por­tante au­tour de l’IA : « Que vou­lons-nous en faire ?, s’in­ter­roge-t-il. Qu’ar­ri­ve­ra-t-il aux hu­mains si les ma­chines les rem­placent gra­duel­le­ment sur le mar­ché du tra­vail ? » (1) La crois­sance éco­no­mique liée au do­maine de l’IA reste pour l’ins­tant faible. Quel est son po­ten­tiel ? Quelles éco­no­mies nous per­met­tra-elle de faire ? Est-elle réel­le­ment un atout si elle tend à rem­pla­cer le tra­vail des hommes ? Au­tant de ques­tions qui montrent bien une chose : les en­jeux qu’elle sou­lève sont éco­no­miques, mais aus­si so­cié­taux. Les dé­fis que doivent re­le­ver nos di­ri­geants po­li­tiques, au­jourd’hui,

sont donc de per­mettre – voire d’or­ga­ni­ser – la tran­si­tion vers une so­cié­té in­cluant l’IA, sous peine d’en­traî­ner une perte mas­sive d’em­plois et un ra­len­tis­se­ment éco­no­mique. Cer­tains éco­no­mistes as­surent que près de 50 % des em­plois sont me­na­cés par l’IA. Par exemple, le ca­bi­net de con­seil amé­ri­cain McKin­sey a es­ti­mé, en 2016, que 47 % des em­plois aux États-Unis pour­raient être sup­pri­més d’ici vingt ans. Mais d’autres en­quêtes, comme celles de l’OCDE ou de France Stra­té­gie (or­ga­nisme de ré­flexion rat­ta­ché au Pre­mier mi­nistre), abou­tissent à des ré­sul­tats très dif­fé­rents : se­lon eux, moins de 10 % des mé­tiers se­raient rem­pla­cés par des ma­chines (2). D’autres études, en­core, cherchent à pré­voir le nombre et le type de mé­tiers créés, même si ce­la reste as­sez dif­fi­cile.

Po­la­ri­sa­tion de la so­cié­té

À cô­té de ce­la, des rap­ports – no­tam­ment ce­lui de Mi­chael A. Os­borne, cher­cheur dans le do­maine de l’ap­pren­tis­sage au­to­ma­tique, et Carl Frey, éco­no­miste, tous deux à l’uni­ver­si­té d’Ox­ford – se fo­ca­lisent sur les « mé­tiers à risque » d’au­to­ma­ti­sa­tion. D’autres éva­luent ce risque par tâche plu­tôt que par mé­tier, comme le rap­port du Con­seil d’orien­ta­tion pour l’em­ploi (3). Ain­si, ex­plique-t-on, les doua­niers, cais­siers et trans­por­teurs rou­tiers pour­raient dis­pa­raître ; les mé­tiers des classes moyennes et des cadres se­raient très dif­fé­rents ; et la so­cié­té pour­rait vivre une nette po­la­ri­sa­tion avec, d’un cô­té, des mé­tiers créa­tifs ou de « ma­na­ger » éco­no­mi­que­ment très pro­duc­tifs et, de l’autre, des mé­tiers ma­nuels et d’as­sis­tance à la per­sonne avec une éco­no­mie faible. Bref, se­lon les mé­tho­do­lo­gies em­ployées, on ar­rive à des conclu­sions contras­tées con­cer­nant l’im­pact de l’in­tel­li­gence ar­ti­fi­cielle sur l’em­ploi. En fait, la pre­mière chose à consi­dé­rer lors de la re­cherche de l’im­pact des ma­chines dans nos vies est le type d’IA avec le­quel nous trai­te­rons réel­le­ment. Il en existe trois types com­muns. Le pre­mier est l’IA faible : la ca­pa­ci­té d’une ma­chine à re­pro­duire un com­por­te­ment hu­main spé­ci­fique, sans conscience. Fon­da­men­ta­le­ment, ce n’est qu’un ou­til puis­sant pour re­pro­duire des tâches par­ti­cu­lières : re­con­naître des ob­jets, ré­pondre à des quiz, jouer au go… Le deuxième est l’IA forte : la ca­pa­ci­té d’une ma­chine à re­pro­duire l’in­tel­li­gence hu­maine consciente et émo­tion­nelle, sa­chant s’adap­ter à l’en­vi­ron­ne­ment et au contexte. Elle est aus­si ap­pe­lée « AGI », « IA gé­né­rale ». Le troi­sième et der­nier est la su­pe­rin­tel­li­gence : une in­tel­li­gence ar­ti­fi­cielle plus in­tel­li­gente que l’in­tel­li­gence de tous les hu­mains com­bi­nés. L’IA, même faible, est à dis­tin­guer de l’au­to­ma­ti­sa­tion. Cette der­nière, qui a dé­jà ré­vo­lu­tion­né le monde ou­vrier, rem­pla­çant les tâches « à la chaîne » des ou­vriers par des ma­chines, re­groupe des ap­pli­ca­tions que l’on dé­fi­nit par les « 4D » (« dan­ge­rous, dull, dir­ty and dumb »), por­tant sur des tra­vaux dits « dan­ge­reux, en­nuyeux, sales et ré­pé­ti­tifs ». L’IA va au-de­là ; elle per­met de rem­pla­cer l’homme pour des

tâches autres qu’au­to­ma­tiques. Do­pés à l’IA, les or­di­na­teurs ou ro­bots peuvent par exemple ré­pondre à la voix de leur maître, par écrit ou par oral. On les re­trouve ain­si dans ce qu’on ap­pelle la ro­bo­tique so­ciale, per­son­nelle et de ser­vice, qui est ré­gie par les « 4E » (« eve­ry­day, e-health, edu­ca­tion, en­ter­tain­ment ») . Les ro­bots so­ciaux nous ac­com­pa­gne­ront au quo­ti­dien, sur­veille­ront notre san­té, dé­ve­lop­pe­ront nos connais­sances et nous amu­se­ront. Pour ces tâches, le ro­bot est vu comme un com­pa­gnon ou un as­sis­tant, mais cer­tai­ne­ment pas comme un rem­pla­çant – d’ailleurs, il en est bien in­ca­pable.

Jour­na­liste ou avo­cat

Dans d’autres do­maines, l’in­tel­li­gence ar­ti­fi­cielle peut re­con­naître ce qu’il y a dans une image, battre un cham­pion de go, ré­pondre à des ques­tions en­cy­clo­pé­diques, si­mu­ler le style de n’im­porte quel ar­tiste, gé­né­rer des images qui semblent réelles, diag­nos­ti­quer le can­cer, etc. Contrai­re­ment à la croyance po­pu­laire, elle au­ra aus­si des consé­quences sur les mé­tiers dits « à col blanc ». Ain­si, il existe dé­jà une IA jour­na­liste, ca­pable de faire des syn­thèses. Ces ro­bots-jour­na­listes, ou ro­bots-ré­dac­teurs, sont en réa­li­té des pro­grammes d’IA per­met­tant de trans­for­mer des don­nées en textes. Le quo­ti­dien amé­ri­cain Los An­geles Times a été l’un des pre­miers jour­naux à sau­ter le pas. Il a ac­cueilli au sein de ses équipes Qua­ke­bot, qui a ré­di­gé son pre­mier ar­ticle en 2014 lors d’un trem­ble­ment de terre sur­ve­nu en Ca­li­for­nie. En France, le site d’in­for­ma­tion du quo­ti­dien Le Monde a eu re­cours à Da­ta2Content pour écrire quelque 36000 ar­ticles à l’oc­ca­sion des élec­tions dé­par­te­men­tales de mars 2015. De la même ma­nière, on compte dé­jà des agents as­sis­tants des avo­cats. Le ca­bi­net amé­ri­cain Ba­kerHos­tet­ler, fon­dé en 1916, en uti­lise un de­puis 2016, dé­nom­mé Ross. Comme le font cer­tains em­ployés des ca­bi­nets d’avo­cats, l’IA ana­lyse des cen­taines de dos­siers et d’ar­ticles sur des cas si­mi­laires à ce­lui qui se­ra plai­dé et va don­ner à l’avo­cat en charge du dos­sier toute in­for­ma­tion utile. En fait, avec l’IA faible – la seule qui nous est ac­ces­sible au­jourd’hui –, de nom­breux em­plois se­ront trans­for­més plu­tôt qu’ame­nés à dis­pa­raître. Il est donc né­ces­saire de ré­flé­chir à la com­plé­men­ta­ri­té hu­main-ma­chine et de trou­ver com­ment l’as­so­cia­tion entre les deux per- met une amé­lio­ra­tion de la pro­duc­tion éco­no­mique, tout en res­pec­tant le bie­nêtre des hu­mains. Ce­la im­plique de ré­pondre à cer­taines ques­tions lorsque l’on sou­haite rem­pla­cer une tâche hu­maine par une IA. Par exemple : la tâche est-elle to­ta­le­ment au­to­ma­ti­sable ? Faut-il une in­tel­li­gence émo­tion­nelle (car la ma­chine n’a pas d’émo­tion, elle peut uni­que­ment en si­mu­ler) ? A-t-on be­soin d’une dé­ci­sion hu­maine pour vé­ri­fier et se por­ter res­pon­sable ? Est-il so­cia­le­ment et ju­ri­di­que­ment ac­cep­table de sub­sti­tuer l’avis d’une ma­chine à ce­lui d’un être hu­main ? Ces in­ter­ro­ga­tions se posent no­tam­ment dans le do­maine mé­di­cal. Le tra­vail d’un mé­de­cin est de re­cueillir des don­nées sur le pa­tient, de faire un diag­nos­tic, de trou­ver un trai­te­ment ap­pro­prié, puis d’ai­der le pa­tient à se sen­tir mieux en éta­blis­sant une re­la­tion de confiance. L’IA faible peut dé­jà ac­com­plir cer­taines de ces tâches : elle est ca­pable d’ana­ly­ser et de diag­nos­ti­quer les images mé­di­cales mieux que les hu­mains ! La ques­tion est alors de sa­voir s’il faut lui lais­ser la dé­ci­sion de trou­ver le trai­te­ment le plus adap­té et de com­man­der des tests com­plé­men­taires. Et, dans ce cas, quel se­ra le rôle du mé­de­cin ? Se consa­cre­ra-t-il uni­que­ment à des cas com­plexes, né­ces­si­tant une in­tel­li­gence gé­né­rale ? L’IA, par bien des as­pects, va nous per­mettre de mieux vivre. Il faut re­con­naître l’uti­li­té in­dé­niable

Mal­gré l’uti­li­té des ro­bots, le contact hu­main doit res­ter cen­tral dans la re­la­tion de soins

des IA, ro­bots et agents ar­ti­fi­ciels, pour fa­ci- li­ter et soulager par exemple le tra­vail des pres­ta­taires de soins, no­tam­ment pour l’ac­com­pa­gne­ment des per­sonnes âgées, tout en sou­li­gnant que le contact hu­main est l’un des as­pects es­sen­tiels de la re­la­tion de soins et qu’il doit res­ter cen­tral. L’IA va per­mettre une meilleure pré­ven­tion de la ma­la­die, une sur­veillance en conti­nu, d’avoir une mé­moire élar­gie, moins de perte de concen­tra­tion ou d’ou­bli d’in­for­ma­tion per­ti­nente, un con­seil ex­pert plus ef­fi­cace, moins sub­jec­tif ou ar­bi­traire, mieux jus­ti­fié… à condi­tion de res­pec­ter un cer­tain nombre de va­leurs. Il est pri­mor­dial que l’IA soit neutre, loyale et non dis­cri­mi­nante. Ces points ont dé­jà été dis­cu­tés par les ac­teurs du do­maine, mais c’est moins le cas des risques éthiques et so­ciaux de l’in­ter­ac­tion à long terme avec des ma­chines. Le désen­ga­ge­ment, la dé­res­pon­sa­bi­li­sa­tion, le manque de mé­rite au tra­vail, la « pro­lé­ta­ri­sa­tion » des sa­voirs et des sa­voir-faire, les dis­pa­ri­tés so­ciales face à la tech­no­lo­gie, la stan­dar­di­sa­tion… sont des pro­blé­ma­tiques qui doivent être da­van­tage dé­bat­tues (4 ) . Afin de ré­pondre aux in­ter­ro­ga­tions sur ces risques et de fa­ci­li­ter l’ap­pro­pria­tion des sys­tèmes d’IA par tous les ac­teurs du monde du tra­vail, il est im­por­tant de ré­flé­chir, dès main­te­nant, aux étapes et aux condi­tions né­ces­saires à l’ins­tau­ra­tion d’un cli­mat de confiance dans le dé­ve­lop­pe­ment de ces tech­no­lo­gies. Ce­la passe par une édu­ca­tion conti­nue du pu­blic sur ce su­jet. Il est éga­le­ment né­ces­saire de tra­vailler sur la com­plé­men­ta­ri­té entre hu­mains et ma­chines à plus ou moins long terme, pour faire émer­ger une sorte de com­pa­gnon­nage. Soyons donc plus hu­mains au contact des ma­chines.

Pep­per, ro­bot hu­ma­noïde conçu par la so­cié­té SoftBank Ro­bo­tics, a pour mis­sion de ren­sei­gner les clients et les voya­geurs, comme ici dans le mé­tro de Londres.

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.