Fake news, vous n’avez en­core rien vu

Des lo­gi­ciels d’images de syn­thèse per­mettent de réa­li­ser des tru­cages d’un réa­lisme ja­mais at­teint. Peut-on en­core faire confiance aux images d’ac­tua­li­té ?

01net - - SOMMAIRE - JEAN-PHI­LIPPE PISANIAS

Al’ar­rière-plan, le dra­peau amé­ri­cain. Face à la ca­mé­ra, Ba­rack Oba­ma, cra­va­te­ser­rée,to­nas­su­ré. On se croi­rait dans le cadre d’une al­lo­cu­tion of­fi­cielle, jus­qu’à ce que l’ex-pré­sident des ÉtatsU­nis lâche : “Trump est un connard fi­ni.” S’il est vrai­sem­blable que cette as­ser­tion re­flète le fond de sa pen­sée, Ba­rack Oba­ma n’a ja­mais rien dit de tel. Même s’il l’a pro­non­cée. Car cette vi­déo YouTube que vous ve­nez de voir de vos yeux vu s’avère bi­don. Mon­tée de toutes pièces, elle est l’oeuvre du ci­néaste amé­ri­cain Jor­dan Peele (au­teur du long-mé­trage Get Out), qui ré­vèle la su­per­che­rie à la fin de la sé­quence. Ai­dé d’un lo­gi­ciel d’images de syn­thèse, le réa­li­sa­teur est par­ve­nu à ma­ni­pu­ler cette re­pré­sen­ta­tion de Ba­rack Oba­ma en pio­chant dans un stock de cin­quante-six heures d’en­re­gis­tre­ments. Il en a fait sa ma­rion­nette, tel le ven­tri­loque Jeff Pa­na­cloc avec Jean-Marc, son singe en pe­luche, mais à un ni­veau XXL. Im­pos­sible pour le spec­ta­teur, même avi­sé, de re­pé­rer la ruse tech­no­lo­gique. Un truc à rendre dingue saint Tho­mas, ce­lui qui ne croit que ce qu’il voit.

Quelques mois plus tôt, notre chaste Tho­mas au­rait sans doute été tout aus­si cho­qué de dé­cou­vrir Mrs. Oba­ma, cette fois, ap­pa­raître dans un film por­no. On pou­vait aus­si re­con­naître, dans des vi­déos concur­rentes, les ac­trices de Game of Th­rones ou de Har­ry Pot­ter. En vé­ri­té, tout était faux : des pe­tits ma­lins avaient col­lé les vi­sages de ces per­son­na­li­tés sur des corps de pro­fes­sion­nelles du X. Porn­hub et Twit­ter dé­ci­dèrent de ban­nir de leurs pla­te­formes ces films tru­qués, d’un réa­lisme trou­blant. Même le fo­rum Red­dit, d’or­di­naire plus ar­ran­geant avec les conte­nus trash, fer­mait le fil de dis­cus­sion consa­cré à ce type de clips, ex­pli­quant qu’ils contre­ve­naient à ses règles en ma­tière de “por­no­gra­phie in­vo­lon­taire”.

D’une vé­ri­té sai­sis­sante. Il en fau­drait plus pour en­di­guer cette vague. Naug­thy Ame­ri­ca, so­cié­té ca­li­for­nienne de pro­duc­tion de films por­no­gra­phiques, a tout de suite vu dans ces tech­niques un le­vier de crois­sance éco­no­mique im­por­tant. De­puis cet été, il pro­pose à ses clients de per­son­na­li­ser leurs réa­li­sa­tions en y ajou­tant “leur propre vi­sage ou ce­lui d’une per­sonne ai­mée et consen­tante (sic) pour as­sou­vir un fan­tasme spé­ci­fique”. Le sec­teur du X n’est pas le seul à plan­cher sur ces nou­veaux ou­tils de post­pro­duc­tion. Les très sé­rieux cher­cheurs de l’uni­ver­si­té Car­ne­gie Mel­lon (Penn­syl­va­nie) ont mis au point une mé­thode ca­pable de trans­po­ser ai­sé­ment les ex­pres­sions fa­ciales d’une per­sonne fil­mée en vi­déo sur une autre créée en image de syn­thèse. Les sec­teurs du film d’ani­ma­tion et du dou­blage jugent cette in­ven­tion pro­met­teuse. En Ca­li­for­nie, à Ber­ke­ley,

une autre équipe est par­ve­nue à faire exé­cu­ter des pas de danse en ani­mant, tels des pan­tins, plu­sieurs co­bayes ac­com­plis­sant sur l’image des mou­ve­ments acro­ba­tiques qu’ils n’ont ja­mais réa­li­sés en vrai. Hip-hop ou bal­let, voyez leur ex­pé­rience sur YouTube (bit.ly/2Py­jlGK) : l’illu­sion est par­faite, la vé­ri­té sai­sis­sante, le na­tu­rel confon­dant. C’est fun, mais pour com­bien de temps ?

Une pan­dé­mie in­con­trô­lable. Car, tel le cô­té obs­cur de la Force dans Star Wars, l’em­pire du faux s’étend dan­ge­reu­se­ment sur In­ter­net. On connais­sait dé­jà les fake news, ces in­tox pu­bliées en masse sur les ré­seaux so­ciaux par des groupes de pres­sion dans le but de ma­ni­pu­ler l’opi­nion. On a ap­pris cet été l’exis­tence de la “fausse science”, consti­tuée par un vo­lume si­gni­fi­ca­tif d’ar­ticles de re­cherche dou­teux fi­nis­sant par être in­dexés dans des bases de don­nées de ré­fé­rence. Mais jus­qu’alors, les vi­suels res­taient plu­tôt épar­gnés, mal­gré quelques pho­to­mon­tages gros­siers cir­cu­lant par-ci par-là. Au­jourd’hui, on change d’échelle. C’est à la vi­déo, au­tre­ment dit à l’image ani­mée, que l’on s’at­taque. Les spé­cia­listes parlent dé­sor­mais

de deep fakes (lit­té­ra­le­ment, faux pro­fonds) pour qua­li­fier ces sé­quences tru­quées de nou­velle gé­né­ra­tion. Rien que leur nom, ins­pi­ré par le pseu­do du pre­mier ha­cker à l’ori­gine du phé­no­mène, fait peur. In­quiet, le Congrès amé­ri­cain vient tout juste de com­man­der un rap­port sur leur no­ci­vi­té en pé­riode élec­to­rale. Ces contre­fa­çons, pro­duites par des algorithmes d’ap­pren­tis­sage au­to­ma­tique, mou­linent d’im­por­tantes bases de don­nées afin de créer l’illu­sion. À par­tir d’une sé­rie de mo­dèles, ces in­tel­li­gences ar­ti­fi­cielles ap­prennent à men­tir toutes seules. “Plus la peine de maî­tri­ser une suite lo­gi­cielle vi­déo, l’or­di­na­teur gé­nère au­to­ma­ti­que­ment ces conte­nus, en moins de temps qu’il n’en faut pour un hu­main et avec plus de pré­ci­sion”, ex­plique Ewa Ki­jak, maître de confé­rences à l’uni­ver­si­té de Rennes.

Si ces clips tra­fi­qués ve­naient à se dif­fu­ser à grande échelle, Aviv Ova­dya, membre émi­nent du Cen­ter for So­cial Me­dia Res­pon­sa­bi­li­ty de l’uni­ver­si­té du Mi­chi­gan, ne pré­dit rien de moins qu’une “in­fo­ca­lypse”. Tra­dui­sez, une des­truc­tion pure et

simple de la vé­ri­té, un ef­fon­dre­ment de notre capacité de dis­cer­ne­ment. Ima­gi­nez : des images fal­si­fiées où Em­ma­nuel Ma­cron trai­te­rait de “ta­ré congé­ni­tal” un élec­teur ; d’autres où un de­man­deur d’asile s’en pren­drait sexuel­le­ment à une ha­bi­tante de Co­logne ; des ex­traits où des flics ta­bas­se­raient un jeune noir en le cou­vrant d’in­sultes ra­cistes. Suite à de tels raids nu­mé­riques co­or­don­nés et pi­lo­tés par des or­ga­nismes aux sombres des­seins, il y a fort à pa­rier que ces films ne se conten­te­raient pas de créer le buzz. Ils don­ne­raient aux men­songes une in­ten­si­té émo­tion­nelle dé­vas­ta­trice. “Les fausses nou­velles sont fa­bri­quées pour pro­vo­quer un ef­fon­dre­ment du dis­cours pu­blic et em­me­ner les gens vers les ex­trêmes”, sou­tient dans Le Monde l’es­sayiste en vue Yu­val Noah Ha­ra­ri, au­teur du best-sel­ler Sa­piens, une brève his­toire de l’hu­ma­ni­té (aux édi­tions Al­bin Mi­chel). Car dans notre so­cié­té du tout-écran, les images font foi. Leur au­to­ri­té est ra­re­ment dis­cu­tée.

Quand bien même un texte vien­drait à dé­mon­trer le bi­don­nage, les images trans­for­mées pos­sé­de­raient une re­mar­quable capacité de mar­quer les es­prits. C’est dé­jà le cas avec les fake

news ac­tuelles. Leur faus­se­té est prou­vée, dé­cor­ti­quée avec pré­ci­sion par les jour­naux dans leurs ru­briques consa­crées à la vé­ri­fi­ca­tion des faits ? Qu’im­porte, elles ré­sistent à toute ana­lyse ra­tion­nelle, telles de mau­vaises herbes à un puis­sant pes­ti­cide na­tu­rel. “Si le fact che­cking per­met de cor­ri­ger les faits, il n’a au­cun ef­fet sur les opi­nions ou sur les in­ten­tions de vote”, sou­tient Eme­ric Hen­ry, pro­fes­seur au dé­par­te­ment d’éco­no­mie de Sciences-Po, au­teur d’une étude sur la ro­bus­tesse de la dés­in­for­ma­tion face à la réa­li­té. Au­tre­ment dit, c’est faux, mais on s’en fout ! On s’ac­croche mor­di­cus à la cer­ti­tude de ses croyances, même avec des in­for­ma­tions ob­jec­tives sous les yeux.

Dans un contexte plus gé­né­ral où la sus­pi­cion est par­tout, ces pra­tiques sus­citent des craintes à prendre très au sé­rieux. Sou­ve­nez­vous de l’ex­ploit, en mai der­nier, de ce jeune Ma­lien, Ma­mou­dou Gas­sa­ma, ve­nu à la res­cousse d’un en­fant sus­pen­du au qua­trième étage d’un im­meuble pa­ri­sien. Il n’a fal­lu que quelques heures pour que les thèses com­plo­tistes ou conspi­ra­tion­nistes les plus folles se ré­pandent sur In­ter­net, met­tant en cause la sin­cé­ri­té de la sé­quence. De­main, les mar­chands de doute n’au­ront pas d’états d’âme à se fau­fi­ler dans cet in­ter­stice entre les faits et la fic­tion. Ils se re­paî­tront à je­ter le soup­çon comme ils ver­se­raient du sel sur une plaie. La confu­sion gran­dis­sante entre in­fo et in­tox at­tein­dra des ni­veaux re­cord. L’ur­gence est à la (ré)édu­ca­tion du re­gard.

Chan­ger de fo­cale. “Avec l’ac­cès à In­ter­net, les élèves sont abreu­vés de nou­velles, mais ne dis­posent pas des clés pour les hié­rar­chi­ser et iden­ti­fier les sources, ex­plique Ian­nis Ro­der, pro­fes­seur d’his­toire en Seine-Saint-De­nis, au­teur d’Al­lons z’en­fants, la Ré­pu­blique vous ap­pelle (édi­té par Odile Ja­cob). Pour eux, la pre­mière in­for­ma­tion qui passe fait vé­ri­té. Le tra­vail des en­sei­gnants consiste à leur ex­pli­quer com­ment elle est construite et com­ment s’écrit l’his­toire.” En ce sens, au Ca­na­da, on s’or­ga­nise afin de dé­jouer les pièges à ve­nir. Avec #30 se­condes avant d’y croire, la Fé­dé­ra­tion pro­fes­sion­nelle des jour­na­listes du Qué­bec sen­si­bi­lise les élèves du se­cond cycle du se­con­daire pour les ai­der à dé­mê­ler le vrai du faux.

Dans les la­bos, on cherche aus­si des so­lu­tions, tech­niques pour dé­tec­ter les deep fakes. À l’Iri­sa (Ins­ti­tut de re­cherche en in­for­ma­tique et sys­tèmes aléa­toires), Vincent Cla­veau, cher­cheur au CNRS (Centre na­tio­nal de la re­cherche scien­ti­fique), s’ac­tive avec ses col­lègues. Il s’est ren­du compte que les mo­dèles ma­thé­ma­tiques gé­né­rant les fakes ap­pre­naient tout seuls à se pro­té­ger des lo­gi­ciels de dé­tec­tion des­ti­nés à ré­vé­ler leur ar­ti­fice. Tels des vi­rus ré­sis­tants aux an­ti­bio­tiques, ils di­gèrent ces ou­tils et re­partent à l’abor­dage. “Ain­si, plu­tôt que cher­cher, en vain, à tra­quer le faux dans l’image, nous pri­vi­lé­gions une autre ap­proche, ex­plique ce spé­cia­liste des hoax. Elle consiste à dé­ve­lop­per un sys­tème par­ve­nant à re­trou­ver les vi­déos sources à l’ori­gine de la ma­ni­pu­la­tion, afin de mettre cette der­nière en lu­mière.” Une autre piste consis­te­rait à au­then­ti­fier les sé­quences via un sys­tème de blo­ck­chains, ces ré­seaux spé­cia­li­sés dans les­quels se­rait cer­ti­fié l’en­co­dage de la vi­déo grâce à la pré­sence d’un pe­tit code in­for­ma­tique spé­ci­fique.

Sources im­pures. Au-de­là de la tech­nique, la res­pon­sa­bi­li­té de cha­cun est dé­ter­mi­nante. Si l’on en croit une étude pa­rue dans le ma­ga­zine Science en mars 2018, les hu­mains sont da­van­tage sus­cep­tibles de pro­pa­ger en ligne les fausses in­for­ma­tions que les ro­bots. Au­tre­ment dit, plus que les algorithmes, nous sommes à l’ori­gine de la dif­fu­sion de ru­meurs en uti­li­sant les bou­tons de par­tage. Les chaînes d’in­for­ma­tion en conti­nu, for­mi­dables caisses de ré­so­nance de ces phé­no­mènes de buzz, son­telles ar­mées pour dé­tec­ter ces vi­déos ma­quillées au blush du men­songe ? “À ce jour, nous n’avons pas été confron­tés à ce type d’images,

ex­plique Ivan Va­le­rio, ré­dac­teur en chef de BFMTV.com. Mais nous sommes dé­jà na­tu­rel­le­ment mé­fiants avec celles en­voyées par les in­ter­nautes sur notre pla­te­forme de té­moi­gnages vi­déo. Nous re­cueillons, par exemple, les co­or­don­nées GPS du smart­phone avec le­quel la sé­quence a été en­re­gis­trée afin de vé­ri­fier la co­hé­rence entre le lieu de la prise de vue et le conte­nu qui nous est don­né à voir.”

Pour se pré­mu­nir de toute ma­ni­pu­la­tion, la capacité des jour­na­listes à s’as­su­rer au­près de leurs sources de la vrai­sem­blance d’images sus­pectes se­rait, se­lon lui, le meilleur bou­clier. “Les deep fakes vont rendre en­core plus né­ces­saire notre ex­per­tise.” À condi­tion de ne pas se lais­ser hys­té­ri­ser par des em­bal­le­ments mé­dia­tiques, au­jourd’hui de­ve­nus la norme. ■

Les in­tox ré­sistent à toute ana­lyse ra­tion­nelle

Ba­rack Oba­ma se se­rait-il lais­sé al­ler à dire le fond de sa pen­sée ? Non. Ces images sont ex­traites d’un tru­cage so­phis­ti­qué réa­li­sé par Jor­dan Peele, qui le dé­mys­ti­fie lui-même à la fin de la sé­quence. “Le Pré­sident Trump est un connard fi­ni.”

Et le réa­li­sa­teur de mettre en garde : “Pour al­ler de l’avant, nous avons be­soin d’être vi­gi­lants.”

... peuvent faire en sorte que n’im­porte qui dise n’im­porte quoi.”

“Nous sommes en­trés dans une ère où nos en­ne­mis...

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.