LES ROBOTS SO­CIAUX ATTAQUENT

Les Affaires - - Front Page - Oli­vier Sch­mou­ker oli­vier.sch­mou­[email protected] Chro­ni­queur | @OSch­mou­ker Chro­nique

Mine de rien, les robots en­va­hissent notre quo­ti­dien et mettent en pé­ril notre exis­tence même. Peut-être croyez- vous que j’exa­gère ; lais­sez-moi vous par­ler d’une toute nou­velle sorte d’au­to­mates, les robots so­ciaux...

Dans les an­nées 1950, Alan Tu­ring, l’un des in­ven­teurs de l’in­for­ma­tique, avait ima­gi­né qu’un beau jour les robots se­raient ca­pables de te­nir une conver­sa­tion avec les êtres hu­mains. C’est au­jourd’hui chose faite, du moins sur les mé­dias so­ciaux : des al­go­rithmes sont ca­pables d’y pro­duire du conte­nu et d’y in­ter­agir avec les êtres hu­mains (ré­pondre à une ques­tion, four­nir un lien per­ti­nent, etc.) sans que ceux-ci se rendent compte que leur in­ter­lo­cu­teur est, en vé­ri­té, un ro­bot so­cial.

Ce­la peut, certes, pré­sen­ter cer­tains avan­tages fi­nan­ciers : par exemple, une en­tre­prise est ain­si en me­sure de ré­pondre à un flux consi­dé­rable de re­quêtes de la part de ses clients, sans avoir à re­cru­ter des di­zaines de per­sonnes pour ce faire. Tou­te­fois, ce­la se ré­vèle sur­tout un ter­rible dan­ger éco­no­mique, po­li­tique et donc so­cié­tal. Ex­pli­ca­tion.

Le 15 avril 2013, deux bombes ont ex­plo­sé à l’ar­ri­vée du ma­ra­thon de Bos­ton, tuant 3 per­sonnes et en bles­sant 264. Im­mé­dia­te­ment, des in­for­ma­tions non fon­dées se sont mises à cir­cu­ler sur Twit­ter concer­nant les pos­sibles res­pon­sables de ce drame, ce qui a me­né les forces de l’ordre sur au­tant de fausses pistes. Ré­sul­tat : il leur a fal­lu plu­sieurs jours pour iden­ti­fier les frères Tsar­naïev. Ce que l’on a ap­pris de­puis, grâce à une étude de Ch­ris­to­pher Cas­sa et de ses col­lègues, c’est que le blâme ne re­vient pas aux gens qui pen­saient bien faire en si­gna­lant des cou­pables po­ten­tiels sur les mé­dias so­ciaux, mais aux robots so­ciaux qui ont mas­si­ve­ment re­layé toutes ces ru­meurs. Du coup, ces robots ont se­mé la pa­nique au sein des ser­vices d’en­quête, qui ne sa­vaient plus où don­ner de la tête.

Les robots so­ciaux peuvent éga­le­ment ma­ni­pu­ler les cours de la Bourse. Un exemple frap­pant est ce­lui de la cam­pagne en fa­veur de la start-up Cynk, qui af­firme pou­voir faire le lien entre les in­ter­nautes et les cé­lé­bri­tés.

En juillet 2014, des robots so­ciaux se sont mis à dis­cu­ter entre eux à pro­pos de la start-up, his­toire de l’en­cen­ser. Ces con­ver­sa­tions ont aus­si­tôt été re­pé­rées par les al­go­rithmes des mai­sons de cour­tage, qui sont res­pon­sables de sur­veiller l’ac­tua­li­té des en­tre­prises co­tées en Bourse et qui ont vite don­né l’ordre d’ache­ter à tout-va. En quelques ins­tants, le titre de Cynk a aug­men­té de 24 000 %, éle­vant la va­leur de la firme à 5 mil­liards de dol­lars. Le temps que les êtres hu­mains réa­lisent l’er­reur de leurs robots, il était trop tard : les pertes se sont chif­frées en mil­liards.

Même chose à l’oc­ca­sion de l’élec­tion pré­si­den­tielle amé­ri­caine de 2016. De mi-sep­tembre à mi-oc­tobre, quelque 20 mil­lions de tweets ont été pro­duits en lien avec la cam­pagne, émis par en­vi­ron 2,8 mil­lions d’uti­li­sa­teurs dis­tincts. Or, une étude d’Ales­san­dro Bes­si et d’Emi­lio Fer­ra­ra a mis au jour le fait que 20% de ces tweets avaient été com­po­sés et dif­fu­sés par des al­go­rithmes, pour un to­tal de 3,8 mil­lions de tweets émis par 400 000 robots so­ciaux. « Ça suf­fit am­ple­ment pour ma­ni­pu­ler l’opi­nion des gens, qui igno­raient que tous les tweets qu’ils re­ce­vaient pour dé­fendre un même camp pro­ve­naient non pas d’élec­teurs comme eux, mais de robots so­ciaux pro­gram­més pour les in­fluen­cer », notent les cher­cheurs, en sou­li­gnant que « ce­la a sû­re­ment pe­sé sur le ré­sul­tat fi­nal de l’élec­tion » et peut, à terme, « mettre car­ré­ment en pé­ril la dé­mo­cra­tie ».

C’est clair, l’heure est grave. D’au­tant plus que de ré­centes avan­cées en ma­tière d’in­tel­li­gence ar­ti­fi­cielle per­mettent aux robots so­ciaux de vo­ler l’iden­ti­té d’un in­ter­naute et de clo­ner son com­por­te­ment en ligne, à son in­su. Au­tre­ment dit, si un tel ro­bot pre­nait le contrôle de vos fils Fa­ce­book et Twit­ter, vos amis vir­tuels n’y ver­raient que du feu.

Que faire ? Ré­agir au plus vite à l’échelle gou­ver­ne­men­tale, se­lon plu­sieurs cher­cheurs en­ga­gés dans l’ini­tia­tive lan­cée dis­crè­te­ment en 2015 par la DARPA, l’agence du dé­par­te­ment amé­ri­cain de la Dé­fense char­gée des avan­cées tech­no­lo­giques à usage mi­li­taire. L’idée est simple : concoc­ter des al­go­rithmes ca­pables de dé­tec­ter les robots so­ciaux les plus so­phis­ti­qués, puis les sup­pri­mer sans pi­tié après avoir re­pé­ré leurs « maîtres ». Ce­la per­met­trait de ré­soudre en­suite le pro­blème à la source (em­pri­son­ner les cy­ber­cri­mi­nels, condam­ner les po­li­ti­ciens mal­veillants, etc.).

Es­pres­so­no­mie

Un ren­dez-vous heb­do­ma­daire, en al­ter­nance dans Les Af­faires et sur le­saf­faires.com, dans le­quel Oli­vier Sch­mou­ker éclaire l’ac­tua­li­té éco­no­mique à la lu­mière des grands pen­seurs d’hier et d’au­jourd’hui, q uitte à ren­ver­ser quelques idées re­çues.

Newspapers in French

Newspapers from Canada

© PressReader. All rights reserved.