Fake news, vous n’avez encore rien vu
Des logiciels d’images de synthèse permettent de réaliser des trucages d’un réalisme jamais atteint. Peut-on encore faire confiance aux images d’actualité ?
Al’arrière-plan, le drapeau américain. Face à la caméra, Barack Obama, cravateserrée,tonassuré. On se croirait dans le cadre d’une allocution officielle, jusqu’à ce que l’ex-président des ÉtatsUnis lâche : “Trump est un connard fini.” S’il est vraisemblable que cette assertion reflète le fond de sa pensée, Barack Obama n’a jamais rien dit de tel. Même s’il l’a prononcée. Car cette vidéo YouTube que vous venez de voir de vos yeux vu s’avère bidon. Montée de toutes pièces, elle est l’oeuvre du cinéaste américain Jordan Peele (auteur du long-métrage Get Out), qui révèle la supercherie à la fin de la séquence. Aidé d’un logiciel d’images de synthèse, le réalisateur est parvenu à manipuler cette représentation de Barack Obama en piochant dans un stock de cinquante-six heures d’enregistrements. Il en a fait sa marionnette, tel le ventriloque Jeff Panacloc avec Jean-Marc, son singe en peluche, mais à un niveau XXL. Impossible pour le spectateur, même avisé, de repérer la ruse technologique. Un truc à rendre dingue saint Thomas, celui qui ne croit que ce qu’il voit.
Quelques mois plus tôt, notre chaste Thomas aurait sans doute été tout aussi choqué de découvrir Mrs. Obama, cette fois, apparaître dans un film porno. On pouvait aussi reconnaître, dans des vidéos concurrentes, les actrices de Game of Thrones ou de Harry Potter. En vérité, tout était faux : des petits malins avaient collé les visages de ces personnalités sur des corps de professionnelles du X. Pornhub et Twitter décidèrent de bannir de leurs plateformes ces films truqués, d’un réalisme troublant. Même le forum Reddit, d’ordinaire plus arrangeant avec les contenus trash, fermait le fil de discussion consacré à ce type de clips, expliquant qu’ils contrevenaient à ses règles en matière de “pornographie involontaire”.
D’une vérité saisissante. Il en faudrait plus pour endiguer cette vague. Naugthy America, société californienne de production de films pornographiques, a tout de suite vu dans ces techniques un levier de croissance économique important. Depuis cet été, il propose à ses clients de personnaliser leurs réalisations en y ajoutant “leur propre visage ou celui d’une personne aimée et consentante (sic) pour assouvir un fantasme spécifique”. Le secteur du X n’est pas le seul à plancher sur ces nouveaux outils de postproduction. Les très sérieux chercheurs de l’université Carnegie Mellon (Pennsylvanie) ont mis au point une méthode capable de transposer aisément les expressions faciales d’une personne filmée en vidéo sur une autre créée en image de synthèse. Les secteurs du film d’animation et du doublage jugent cette invention prometteuse. En Californie, à Berkeley,
une autre équipe est parvenue à faire exécuter des pas de danse en animant, tels des pantins, plusieurs cobayes accomplissant sur l’image des mouvements acrobatiques qu’ils n’ont jamais réalisés en vrai. Hip-hop ou ballet, voyez leur expérience sur YouTube (bit.ly/2PyjlGK) : l’illusion est parfaite, la vérité saisissante, le naturel confondant. C’est fun, mais pour combien de temps ?
Une pandémie incontrôlable. Car, tel le côté obscur de la Force dans Star Wars, l’empire du faux s’étend dangereusement sur Internet. On connaissait déjà les fake news, ces intox publiées en masse sur les réseaux sociaux par des groupes de pression dans le but de manipuler l’opinion. On a appris cet été l’existence de la “fausse science”, constituée par un volume significatif d’articles de recherche douteux finissant par être indexés dans des bases de données de référence. Mais jusqu’alors, les visuels restaient plutôt épargnés, malgré quelques photomontages grossiers circulant par-ci par-là. Aujourd’hui, on change d’échelle. C’est à la vidéo, autrement dit à l’image animée, que l’on s’attaque. Les spécialistes parlent désormais
de deep fakes (littéralement, faux profonds) pour qualifier ces séquences truquées de nouvelle génération. Rien que leur nom, inspiré par le pseudo du premier hacker à l’origine du phénomène, fait peur. Inquiet, le Congrès américain vient tout juste de commander un rapport sur leur nocivité en période électorale. Ces contrefaçons, produites par des algorithmes d’apprentissage automatique, moulinent d’importantes bases de données afin de créer l’illusion. À partir d’une série de modèles, ces intelligences artificielles apprennent à mentir toutes seules. “Plus la peine de maîtriser une suite logicielle vidéo, l’ordinateur génère automatiquement ces contenus, en moins de temps qu’il n’en faut pour un humain et avec plus de précision”, explique Ewa Kijak, maître de conférences à l’université de Rennes.
Si ces clips trafiqués venaient à se diffuser à grande échelle, Aviv Ovadya, membre éminent du Center for Social Media Responsability de l’université du Michigan, ne prédit rien de moins qu’une “infocalypse”. Traduisez, une destruction pure et
simple de la vérité, un effondrement de notre capacité de discernement. Imaginez : des images falsifiées où Emmanuel Macron traiterait de “taré congénital” un électeur ; d’autres où un demandeur d’asile s’en prendrait sexuellement à une habitante de Cologne ; des extraits où des flics tabasseraient un jeune noir en le couvrant d’insultes racistes. Suite à de tels raids numériques coordonnés et pilotés par des organismes aux sombres desseins, il y a fort à parier que ces films ne se contenteraient pas de créer le buzz. Ils donneraient aux mensonges une intensité émotionnelle dévastatrice. “Les fausses nouvelles sont fabriquées pour provoquer un effondrement du discours public et emmener les gens vers les extrêmes”, soutient dans Le Monde l’essayiste en vue Yuval Noah Harari, auteur du best-seller Sapiens, une brève histoire de l’humanité (aux éditions Albin Michel). Car dans notre société du tout-écran, les images font foi. Leur autorité est rarement discutée.
Quand bien même un texte viendrait à démontrer le bidonnage, les images transformées posséderaient une remarquable capacité de marquer les esprits. C’est déjà le cas avec les fake
news actuelles. Leur fausseté est prouvée, décortiquée avec précision par les journaux dans leurs rubriques consacrées à la vérification des faits ? Qu’importe, elles résistent à toute analyse rationnelle, telles de mauvaises herbes à un puissant pesticide naturel. “Si le fact checking permet de corriger les faits, il n’a aucun effet sur les opinions ou sur les intentions de vote”, soutient Emeric Henry, professeur au département d’économie de Sciences-Po, auteur d’une étude sur la robustesse de la désinformation face à la réalité. Autrement dit, c’est faux, mais on s’en fout ! On s’accroche mordicus à la certitude de ses croyances, même avec des informations objectives sous les yeux.
Dans un contexte plus général où la suspicion est partout, ces pratiques suscitent des craintes à prendre très au sérieux. Souvenezvous de l’exploit, en mai dernier, de ce jeune Malien, Mamoudou Gassama, venu à la rescousse d’un enfant suspendu au quatrième étage d’un immeuble parisien. Il n’a fallu que quelques heures pour que les thèses complotistes ou conspirationnistes les plus folles se répandent sur Internet, mettant en cause la sincérité de la séquence. Demain, les marchands de doute n’auront pas d’états d’âme à se faufiler dans cet interstice entre les faits et la fiction. Ils se repaîtront à jeter le soupçon comme ils verseraient du sel sur une plaie. La confusion grandissante entre info et intox atteindra des niveaux record. L’urgence est à la (ré)éducation du regard.
Changer de focale. “Avec l’accès à Internet, les élèves sont abreuvés de nouvelles, mais ne disposent pas des clés pour les hiérarchiser et identifier les sources, explique Iannis Roder, professeur d’histoire en Seine-Saint-Denis, auteur d’Allons z’enfants, la République vous appelle (édité par Odile Jacob). Pour eux, la première information qui passe fait vérité. Le travail des enseignants consiste à leur expliquer comment elle est construite et comment s’écrit l’histoire.” En ce sens, au Canada, on s’organise afin de déjouer les pièges à venir. Avec #30 secondes avant d’y croire, la Fédération professionnelle des journalistes du Québec sensibilise les élèves du second cycle du secondaire pour les aider à démêler le vrai du faux.
Dans les labos, on cherche aussi des solutions, techniques pour détecter les deep fakes. À l’Irisa (Institut de recherche en informatique et systèmes aléatoires), Vincent Claveau, chercheur au CNRS (Centre national de la recherche scientifique), s’active avec ses collègues. Il s’est rendu compte que les modèles mathématiques générant les fakes apprenaient tout seuls à se protéger des logiciels de détection destinés à révéler leur artifice. Tels des virus résistants aux antibiotiques, ils digèrent ces outils et repartent à l’abordage. “Ainsi, plutôt que chercher, en vain, à traquer le faux dans l’image, nous privilégions une autre approche, explique ce spécialiste des hoax. Elle consiste à développer un système parvenant à retrouver les vidéos sources à l’origine de la manipulation, afin de mettre cette dernière en lumière.” Une autre piste consisterait à authentifier les séquences via un système de blockchains, ces réseaux spécialisés dans lesquels serait certifié l’encodage de la vidéo grâce à la présence d’un petit code informatique spécifique.
Sources impures. Au-delà de la technique, la responsabilité de chacun est déterminante. Si l’on en croit une étude parue dans le magazine Science en mars 2018, les humains sont davantage susceptibles de propager en ligne les fausses informations que les robots. Autrement dit, plus que les algorithmes, nous sommes à l’origine de la diffusion de rumeurs en utilisant les boutons de partage. Les chaînes d’information en continu, formidables caisses de résonance de ces phénomènes de buzz, sontelles armées pour détecter ces vidéos maquillées au blush du mensonge ? “À ce jour, nous n’avons pas été confrontés à ce type d’images,
explique Ivan Valerio, rédacteur en chef de BFMTV.com. Mais nous sommes déjà naturellement méfiants avec celles envoyées par les internautes sur notre plateforme de témoignages vidéo. Nous recueillons, par exemple, les coordonnées GPS du smartphone avec lequel la séquence a été enregistrée afin de vérifier la cohérence entre le lieu de la prise de vue et le contenu qui nous est donné à voir.”
Pour se prémunir de toute manipulation, la capacité des journalistes à s’assurer auprès de leurs sources de la vraisemblance d’images suspectes serait, selon lui, le meilleur bouclier. “Les deep fakes vont rendre encore plus nécessaire notre expertise.” À condition de ne pas se laisser hystériser par des emballements médiatiques, aujourd’hui devenus la norme. ■
Les intox résistent à toute analyse rationnelle