IA : la grande peur de notre siècle ?.

L'Informaticien - - SOMMAIRE - COM­MEN­TER, RÉ­AGIR, PAR­TA­GER… SUR LA RUBRIQUE DÉ­BATS DE LIN­FOR­MA­TI­CIEN. COM

OOn se croi­rait au temps de l’An 1000 qui an­non­çait des ca­tas­trophes toutes plus ter­ri­fiantes les unes que les autres. La nou­velle peste, bien que l’an­cienne re­sur­gisse du fait de l’in­con­sé­quence de l’homme, est l’In­tel­li­gence ar­ti­fi­cielle. Dans le do­maine, on a d’ailleurs du mal à ar­rê­ter la sur­en­chère. Le hé­raut des nou­velles tech­no­lo­gies, Elon Musk, a pas­sé son été à s’échar­per avec Mark Zu­cker­berg sur les dan­gers et les consé­quences de l’IA. Il a été jus­qu’à de­man­der que l’on in­ter­dise aux ro­bots, ou aux autres êtres à l’er­satz d’in­tel­li­gence, de tuer des hu­mains. Bien­ve­nue dans la vi­sion apo­ca­lyp­tique des ré­pli­cants chers à Phi­lip. K. Dick et à son ro­man Blade Runner, dont la nou­velle mou­ture a dû an­gois­ser fran­che­ment Elon Musk ! Ac­cor­dons- lui une ima­gi­na­tion dé­bor­dante al­lant du train- ca­non, à la sta­tion lu­naire der­nier ar­rêt avant Mars et l’an­goisse que les ro­bots puissent se re­tour­ner contre nous. Il est vrai que vu la ma­nière dont va le monde, il ne se­rait pas sau­gre­nu que les ro­bots puissent avoir un jour l’en­vie d’éli­mi­ner les hu­mains pour construire un monde meilleur… Il leur suf­fi­rait pour­tant de lais­ser al­ler les choses puisque l’hu­main est le seul ani­mal près à se dé­truire lui­même et le cadre dans le­quel il vit. Google en a ra­jou­té une petite couche avec la cons­ti­tu­tion d’un groupe de tra­vail sur l’éthique dans son uti­li­sa­tion de l’In­tel­li­gence ar­ti­fi­cielle. Google DeepMind, la fi­liale d’Al­pha­bet dé­diée à cette tech­no­lo­gie, a créé une équipe de re­cherche char­gée de tra­vailler con­join­te­ment avec ses in­gé­nieurs pour voir si ce­la n’en­traîne pas des dé­rives. Après avoir été pris par la main dans le pot de confi­ture avec Google Shop­ping… on peut les com­prendre. Sans comp­ter l’exemple de l’au­to­ri­té bri­tan­nique de pro­tec­tion des don­nées per­son­nelles qui a ta­pé sur les doigts de DeepMind pour son uti­li­sa­tion des don­nées dans les re­cherches mé­di­cales. Google n’est pas seul, les uni­ver­si­tés Car­ne­gie Mel­lon aux États- Unis et d’Ox­ford en Grande- Bre­tagne ont des centres de re­cherche sur des points spé­ci­fiques liés à cette tech­no­lo­gie comme le des­tin des « ou­vriers du clic » ou les dé­rives consta­tées sur le lan­gage.

En son temps, Mi­cro­soft s’est pris les pieds dans le ta­pis avec un bot de­ve­nu na­zi en quelques jours du fait des don­nées qu’il in­gé­rait au­to­ma­ti­que­ment sur le Web. Pas for­cé­ment ras­su­rant sur le conte­nu du ré­seau des réseaux. L’ONU s’in­ter­roge de­puis 2013 sur les « armes au­to­nomes » et sur les ma­chines tueuses en écho aux in­ter­ro­ga­tions d’Elon Musk.

Hys­té­rie col­lec­tive

La peur se dif­fuse d’ailleurs dans toutes les couches de la po­pu­la­tion, même dans les gé­né­ra­tions les plus jeunes, celles dont on nous ex­plique de­puis des an­nées qu’elles maî­trisent mieux les tech­no­lo­gies com­pa­rées à nous autres vieux bar­bons ca­co­chymes per­dus face à la vague de chan­ge­ment qui nous as­saille ! La peur est sur­tout liée aux consé­quences so­ciales de l’ir­rup­tion des ro­bots dans notre vie pro­fes­sion­nelle. Ain­si, nous autres jour­na­listes sommes dé­jà une race en voie de dis­pa­ri­tion. Des ro­bots agré­ga­teurs de conte­nus concoc­te­raient ain­si de merveilleux ar­ticles à par­tir des élé­ments pré­sents sur le Web. En com­bien de temps un ro­bot ne co­pie­ra pas son voi­sin sur une nou­velle ? Vous avez quatre heures ! Deuxio, vu le pas­sé des ro­bots sur l’uti­li­sa­tion du lan­gage ci­tée plus haut, comment le ro­bot fe­ra- t- il la dif­fé­rence entre un mes­sage mar­ke­ting bien tour­né et de l’in­for­ma­tion ? On vous re­donne quatre heures ou pas ? Une étude ré­cente, pa­rue le 4 oc­tobre der­nier, réa­li­sée au­près de di­ri­geants du sec­teur in­for­ma­tique in­dique que 60 % des en­tre­prises pour­raient connaître un im­pact du fait de l’au­to­ma­ti­sa­tion par l’In­tel­li­gence ar­ti­fi­cielle. Bref, il nous reste cinq ans pour nous pré­pa­rer et ac­qué­rir les com­pé­tences qui nous per­met­traient de faire face. 37 % des sa­la­riés in­ter­ro­gés dans une autre étude ( 10 000 per­sonnes in­ter­ro­gées dans dif­fé­rents pays) croient que l’IA met leur em­ploi en dan­ger. PwC in­dique dans un rap­port que 38 % des em­plois aux ÉtatsU­nis pour­raient être tou­chés d’ici à 2030. La so­lu­tion pro­po­sée par Bill Gates : le ro­bot vo­leur d’em­ploi de­vrait payer des im­pôts. Sic ! Ste­phen Haw­king pense lui que ce se­ront les em­plois des classes moyennes qui se­ront dé­ci­més dans une chro­nique dans The Guar­dian. Pour notre pays, se­lon une étude pa­rue à l’oc­ca­sion du Fo­rum de Da­vos, « 7 mil­lions d’em­plois dis­pa­raî­traient d’ici à 2020, rem­pla­cés par 1,5 % de ces 7 mil­lions de nou­veaux em­plois créés » . Et en­core, tous ces em­plois se­ront de ni­veau Bac + 4 ou 5. Pas don­né à tout le monde de nos jours !

Rai­son gar­der

Ces chiffres tiennent tout au­tant de l’ap­proxi­ma­tion, si ce n’est de la sur­es­ti­ma­tion dans beau­coup de cas, que d’un « ex­po­nen­tia­lisme » de mau­vais aloi, qui re­lève plus de scé­na­rios hol­ly­woo­diens que d’une réa­li­té as­sise sur des faits. Comme le fait re­mar­quer Rod­ney Brooks du MIT, il convient aus­si de voir la vi­tesse de dé­ploie­ment de cette tech­no­lo­gie pour se ras­su­rer sur l’ave­nir im­mé­diat. Ce que l’on sait seule­ment tient en une phrase : l’In­tel­li­gence ar­ti­fi­cielle va trans­for­mer notre ma­nière de tra­vailler. Soit. Pour­quoi ne pas s’at­te­ler à ai­der les sa­la­riés à maî­tri­ser ces tech­no­lo­gies ? Dé­jà dis­tan­cé par la Chine et les ÉtatsU­nis dans ce sec­teur, notre pays doit ac­cé­lé­rer et se don­ner les moyens de res­ter dans la course à l’In­tel­li­gence ar­ti­fi­cielle. En pa­ral­lèle, il est né­ces­saire d’en­ta­mer une ré­flexion sur ce que se­ra la va­leur d’une col­la­bo­ra­tion entre un sa­la­rié et une en­tre­prise. Bref, re­mettre en cause la va­leur tra­vail telle que nous la connais­sons au­jourd’hui pour la re­dé­fi­nir sur les bases de cette nou­velle ré­vo­lu­tion in­dus­trielle. Les en­tre­prises veulent- elles seule­ment des em­ployés « aug­men­tés » ? Vincent Cham­pain, di­rec­teur gé­né­ral de GE Di­gi­tal, ci­té par Les Echos, in­dique que l’ « On de­vrait uti­li­ser l’éner­gie que l’on met à se faire peur pour mieux se pré­pa­rer. À trop se fo­ca­li­ser sur les dan­gers, on risque de ra­ter des op­por­tu­ni­tés » . Pour ré­su­mer, la peur n’évi­tant pas le dan­ger, se ré­fu­gier der­rière le ca­tas­tro­phisme n’ap­por­te­ra pas les ré­ponses que la So­cié­té at­tend sur l’uti­li­sa­tion de l’In­tel­li­gence ar­ti­fi­cielle. Un dé­bat au­tour de ce que se­ra le tra­vail, ou la va­leur qui le rem­pla­ce­ra, se­rait peut- être plus construc­tif. Le sa­laire uni­ver­sel évo­qué par plu­sieurs hommes po­li­tiques ne semble qu’un pis- al­ler sur le vieux sché­ma de la va­leur tra­vail. De­vons- nous de­man­der la ré­ponse à des ro­bots ? ❍

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.