IA ET « FAKE NEWS »

Ca­pable de créer des textes et de re­pro­duire des voix à par­tir d’ex­traits, l’IA per­met aus­si de gé­né­rer des fausses vi­déos de per­sonnes exis­tantes, com­pli­quant en­core plus la lutte contre les « fausses nou­velles ».

La Tribune Hebdomadaire - - SOMMAIRE - FRAN­ÇOIS MANENS

L’in­tel­li­gence ar­ti­fi­cielle peut créer des textes, re­pro­duire des voix et des fausses vi­déos de per­sonnes exis­tantes.

Sur la vi­déo, Barack Obama, en cos­tume, prend la pa­role de­puis son bu­reau. « Nous en­trons dans une ère où nos en­ne­mis peuvent faire croire que n’im­porte quelle per­sonne peut dire n’im­porte quoi à n’im­porte quel mo­ment, pré­vient-il d’un ton grave. Par exemple, ils pour­raient me faire dire “le pré­sident Trump est une gi­gan­tesque sombre merde”. » C’est alors que l’écran se scinde en deux et que le co­mé­dien et réa­li­sa­teur Jor­dan Peele ap­pa­raît, par­fai­te­ment syn­chro­ni­sé avec l’image de l’an­cien pré­sident. Avec cette vi­déo pos­tée par Buzzfeed le 17 avril 2018, le ci­néaste a vou­lu pré­ve­nir le pu­blic sur les dan­gers des deep­fakes, par ailleurs uti­li­sés au ci­né­ma. « À l’ave­nir, nous de­vons être en­core plus vi­gi­lants sur ce que nous trou­vons sur In­ter­net, ou nous al­lons som­brer dans une sale dys­to­pie » , conclut-il. Der­rière le mot-va­lise deep­fake se trouve les termes dee­plear­ning (ou ap­pren­tis­sage pro­fond, une forme d’in­tel­li­gence ar­ti­fi­cielle) et fake (faux en an­glais). Les deep­fakes per­mettent, dans leur forme la plus simple, de su­per­po­ser des images et des vi­déos exis­tantes sur d’autres images et vi­déos. Dans leur forme la plus avan­cée, ils peuvent créer un conte­nu vrai­sem­blable de toutes pièces. Les al­go­rithmes sont en­trai­nés à par­tir de bases de don­nées im­por­tantes, comme par exemple les nom­breuses prises de pa­role té­lé­vi­sées de Barack Obama, pour gé­né­rer des vi­déos avec une re­pro­duc­tion réa­liste de sa voix. Dans leur usage pre­mier, au ci­né­ma, Star Wars : Les Der­niers Je­di en a par exemple fait usage pour ajou­ter des dia­logues à l’ac­trice Car­rie Fi­sher, dé­cé­dée avant la fin du tour­nage.

UNE TECH­NO­LO­GIE COM­PLEXE ET RUDIMENTAI­RE

Cô­té grand pu­blic, le pro­cé­dé s’est fait connaître en 2016, par le biais du ré­seau so­cial Red­dit. Un uti­li­sa­teur avait pos­té un ou­til rudimentai­re de créa­tion de deep­fake, des­ti­né à cal­quer le vi­sage de cé­lé­bri­tés, très ma­jo­ri­tai­re­ment des femmes, sur les corps d’ac­trices por­no­gra­phiques. Pire, une cen­taine de mil­liers de par­ti­ci­pants du fo­rum a ra­pi­de­ment pro­fi­té du pro­cé­dé pour du « re­venge porn », en in­crus­tant des images d’an­ciennes com­pagnes par exemple. Un pseu­do af­fir­mait ain­si avoir uti­li­sé 380 pho­tos ti­rées des comptes Fa­ce­book et Ins­ta­gram d’une an­cienne ca­ma­rade de ly­cée pour créer une vi­déo por­no­gra­phique. Si ces deep­fakes ont pu cau­ser des dé­gâts, ils n’en res­taient pas moins gros­siers et donc re­pé­rables. La tech­no­lo­gie est com­plexe et pour l’heure rudimentai­re. Il n’existe pour l’instant au­cun ou­til vrai­ment per­for­mant qui ren­drait leur usage ac­ces­sible au grand pu­blic, comme une sorte de Pho­to­shop des deep­fakes. Tech­ni­que­ment, les deep­fakes sont créés par des ré­seaux an­ta­go­nistes gé­né­ra­tifs (ou GANs en an­glais), une classe d’al­go­rithme dé­cou­verte par un chercheur de Google en 2014. Les GANs se construise­nt à par­tir de l’in­ter­ac­tion entre deux ré­seaux neu­ro­naux. Le pre­mier, le gé­né­ra­teur, s’ins­pire de la base de don­nées in­sé­rée pour créer des échan­tillons qui imitent le conte­nu. Le se­cond ré­seau, le dis­cri­mi­na­teur, éva­lue la qua­li­té de ces échan­tillons. En­suite le gé­né­ra­teur af­fine ses pro­duc­tions en fonc­tion des re­tours du dis­ri­mi­na­teur, qui lui-même doit peau­fi­ner ses éva­lua­tions, et ain­si com­mence le cercle ver­tueux. Ce pro­cé­dé per­met de créer des images, im­mo­biles comme ani­mées, à grande vi­tesse et sur­tout à très grande échelle. En dé­cembre 2018, des cher­cheurs de Nvi­dia ont pu­blié les ré­sul­tats de leur re­cherche, un al­go­rithme ca­pable de gé­né­rer à l’in­fi­ni des vi­sages réa­listes… de per­sonnes qui n’existent pas. Ils ont in­tro­duit dans leurs GANs une ar­chi­tec­ture nou­velle qui dis­tingue trois ni­veaux de dé­tail (des plus gros­siers comme la forme du vi­sage aux plus fins comme la pi­lo­si­té) sur les vi­sages hu­mains. Grâce à une base de don­nées de 70$000 pho­tos, leur al­go­rithme peut créer toute sorte de com­bi­nai­son de ces trois ni­veaux. Des nou­veau­tés comme celle de Nvi­dia sur­gissent à chaque tri­mestre. Les res­sources al­louées à la re­cherche en in­tel­li­gence ar­ti­fi­cielle n’ont ja­mais été aus­si im­por­tantes, et la puis­sance de cal­cul des or­di­na­teurs ne cesse de pro­gres­ser grâce à l’uti­li­sa­tion de puces dé­sor­mais dé­diées à l’in­tel­li­gence ar­ti­fi­cielle.

LE PHO­TO­SHOP DU « DEEP­FAKE » VA BIEN­TÔT AR­RI­VER

« Une ca­pa­ci­té de créa­tion de deep­fakes, des­ti­née au grand pu­blic, va ra­pi­de­ment émer­ger, no­tam­ment grâce au mar­ché gran­dis­sant du cy­ber­crime comme ser­vice sur le Dark Web », pré­viennent les cher­cheurs en droit Ro­bert Ches­ney et Da­nielle Keats Ci­tron. Vol d’iden­ti­té pour ac­cé­der à des comptes, abus d’iden­ti­té pour dif­fu­ser des rumeurs, de­mandes de ran­çon en échange de la non-dif­fu­sion de faux conte­nus sexuels, les dé­cli­nai­sons per­verses de la tech­no­lo­gie sont nom­breuses. Sur les ré­seaux so­ciaux, le pro­cé­dé au­to­ma­ti­sé per­met­tra la dif­fu­sion de fausses in­for­ma­tions d’une qua­li­té in­édite, à une échelle ja­mais vue au­pa­ra­vant, la vi­déo étant le mé­dium pré­fé­ré des uti­li­sa­teurs. Vincent Cla­veau, char­gé de re­cherche au CNRS, ex­pli­quait dans Té­lé­ra­ma que des techniques fon­dées sur l’ob­ser­va­tion des sourcils ou des coins de la bouche per­mettent au­jourd’hui de re­pé­rer fa­ci­le­ment les deep­fakes. Mais de­main, le sub­ter­fuge se­ra si réa­liste qu’il fau­dra de vrais ou­tils de dé­tec­tion, qui ar­ri­ve­ront for­cé­ment en re­tard vis-à-vis des der­nières technologi­es. Cons­cients des dan­gers po­ten­tiels de leurs al­go­rithmes, les cher­cheurs prennent des pré­cau­tions. OpenAI, as­so­cia­tion de re­cherche en in­tel­li­gence ar­ti­fi­cielle co­fon­dée par Elon Musk, a ré­cem­ment mis à jour son al­go­rithme très per­for­mant de gé­né­ra­tion de textes, GPT-2. Après avoir iden­ti­fié tous les ef­fets né­fastes, ses au­teurs ont li­mi­té la pu­bli­ca­tion de leurs ré­sul­tats à une par­tie de code, sans la base de don­nées qu’ils ont uti­li­sée. « Nous pen­sons que les gou­ver­ne­ments de­vraient dé­ve­lop­per des ini­tia­tives pour sur­veiller de fa­çon plus sys­té­ma­tique les ef­fets des technologi­es d’IA sur la so­cié­té, et pour me­su­rer la pro­gres­sion de leurs ca­pa­ci­tés », pré­co­nisent les cher­cheurs. Mal­heu­reu­se­ment, la tech­no­lo­gie pour­rait une nou­velle fois prendre de vi­tesse le droit.

« Les gou­ver­ne­ments de­vraient dé­ve­lop­per des ini­tia­tives pour sur­veiller de fa­çon plus sys­té­ma­tique les ef­fets des technologi­es d’IA sur la so­cié­té » DES CHER­CHEURS DE L’AS­SO­CIA­TION OPENAI

[DR]

Dans cette vi­déo, le co­mé­dien et réa­li­sa­teur Jor­dan Peele met en garde le pu­blic sur les dan­gers que re­pré­sentent les deep­fakes.

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.