GQ (France)

Faut-il flipper des deepfakes, ces vidéos hyper réalistes usurpant l’identité des puissants... ou la vôtre ?

Imaginez une allocution très crédible du président de la République... mais où il tiendrait des propos complèteme­nt délirants. C’est ce que permettent les « deepfakes », ces vidéos hyper réalistes usurpant l’identité des puissants – ou la vôtre. Alors est

- PAR LOÏC HECHT_ILLUSTRATI­ONS PIERRE LA POLICE

Au grand désespoir de nos voisins transalpin­s, la politique italienne se drape souvent de l’étoffe d’une mauvaise télé-réalité. Parmi les participan­ts, Matteo Renzi, 45 ans, chef du gouverneme­nt entre 2014 et 2016, déçoit rarement. En septembre 2019, ce publicitai­re de métier, parfois taxé de mauvaise copie de Silvio Berlusconi, rompait avec le Parti démocrate pour créer sa propre formation centriste. Et quelques jours après cet énième mini-séisme, une curieuse vidéo ajoutait au trouble. On y voyait Renzi assis à un bureau, en attente d’un duplex. Semblant oublier la caméra, notre homme étrillait verbalemen­t tous les ténors politiques transalpin­s. Pire, chaque nom égrené était accompagné d’un ostentatoi­re bras d’honneur. Forcément, en découvrant la vidéo, des militants de tout bord débordaien­t d’indignatio­n sur Twitter. Sauf que la fin de la récréation fut vite sifflée par les observateu­rs attentifs. Même si l’extrait semblait crédible, Renzi n’avait jamais rien dit de tel. Il s’agissait d’un « deepfake », ou encore « hyper-trucage », une vidéo dans laquelle un visage, celui d’un comédien ici, avait été remplacé par un autre, celui de Renzi donc. L’opération était le produit d’un algorithme de deep learning qui a superposé des images des deux personnes pour créer une synthèse d’excellente facture, permettant de faire dire à Renzi des paroles qu’il n’avait jamais prononcées. Une prouesse ? À peine. Aujourd’hui, fabriquer un deepfake crédible est à la portée de quiconque disposant d’un ordinateur équipé d’une puissante carte graphique, d’une connexion Internet pour télécharge­r un des logiciels gratuits, et de beaucoup de patience : réaliser un deepfake de bonne qualité demande un travail d’ajustement digne d’un orfèvre. Mais on le sait, sur Internet, du temps, les gens s’arrangent toujours pour en trouver. Agité comme un symbole de la fin de la vérité, le deepfake fait craindre à certains observateu­rs des perturbati­ons dans le processus démocratiq­ue. Et en cette année 2020 où se tiendra l’élection présidenti­elle américaine, le spectre des manipulati­ons de l’année 2016 qui ont contribué à la victoire de Donald Trump est encore très vif dans les esprits. Les articles prospectif­s et les prédiction­s apocalypti­ques se multiplien­t. Au point que Facebook a même annoncé un concours pour développer des outils afin de les traquer. Bref, on est à la limite d’une petite panique des familles. Mais est-elle réellement justifiée ?

TROMPETTES DE L’APOCALYPSE

Sam Gregory a toujours eu une âme d’activiste et une passion pour la vidéo. Ce faisceau d’intérêts l’a conduit à prendre la tête de Witness, une ONG qui, de Damas à Rio, équipe des citoyens en caméras pour dénoncer les violations des droits de l’homme. Witness forme aussi les participan­ts à ses ateliers à repérer les fake news, ainsi que les shallow news, autrement dit, les vidéos trompeuses : vraies en soi,

mais dont le contexte initial a été altéré ou dissimulé. Sam Gregory fait partie des premiers à avoir vu poindre un danger avec les deepfakes : « Depuis deux ans, on entend beaucoup parler de la fin de la vérité. On peut considérer que c’est une menace pour la démocratie. Mais pour nous, c’est d’abord l’évolution d’un problème existant. » Si les deepfakes font peur, c’est que leur qualité progresse vite, mettant à mal le principe cher à Saint-Thomas : voir n’est plus suffisant pour croire. Mais en matière de manipulati­on, plus que les images trafiquées, la ressource la plus puissante est le contexte de réception. C’est le principe des « shallow news ». En Italie, les plus prompts à monter dans les tours en découvrant l’hyper-trucage de Matteo Renzi étaient les mêmes qui lui vouent un rejet politique féroce. André Gunthert, maître de conférence­s à l’EHESS, et spécialist­e des cultures visuelles, a coutume de dire que « le piège généraleme­nt grossier des fake news ne fonctionne que parce que le détourneme­nt va à l’encontre des préjugés des récepteurs ». En bon historien, une référence évidente s’impose à lui : « L’emballemen­t médiatique autour des deepfakes me rappelle l’accueil des premières images numériques dans les années 1990, puis l’émergence de Photoshop. Les gourous de l’époque écrivaient qu’on ne pourrait plus avoir confiance dans la photograph­ie, que l’image numérique serait une catastroph­e pour la vérité. Sauf que, dans les faits, on a toujours retouché les photos, et l’apocalypse annoncée n’a pas eu lieu. Photoshop a certes démocratis­é une compétence qui était peu répandue, mais le problème, c’est qu’on a une vision extrêmemen­t sommaire et binaire de la vérité et de la fausseté, qui ne correspond pas à la complexité de la réalité. Et d’ailleurs, même sur l’image animée, cela fait vingt-cinq ans que le cinéma utilise des CGI (des séquences animées générées sur ordinateur, ndlr). La seule nouveauté des deepfakes, c’est qu’on peut le faire plus facilement, y compris dans des usages récréatifs et personnels. » Difficile de donner tort à André Gunthert. Car on a beau chercher, même si l’on a vu des détourneme­nts très réalistes d’Obama ou de Trump, et même s’il existe un doute quant au fait que l’entourage d’Ali Bongo, le président du Gabon, ait pu truquer une vidéo de lui pour dissiper des rumeurs sur son état de santé, aucun deepfake, à ce jour, n’a influencé le cours politique de quoi que ce soit. Et ce n’est pas étonnant : d’après Deeptrace, un cabinet de cybersécur­ité, 96 % des deepfakes en ligne sont en fait de nature pornograph­ique.

Bella Thorne est un nom qui ne vous dit peut-être rien. Actrice, chanteuse, et autrice d’un roman remarqué en 2019, Life of a Wannabe Mogul : Mental Disarray, Bella, 22 ans, a été une des égéries Disney Channel durant son adolescenc­e, comme Britney Spears, Miley Cyrus et Selena Gomez avant elle. Cette ligne de CV lui vaut d’être une superstar suivie sur les réseaux sociaux par des dizaines de millions de personnes aux États-Unis. Et en raison de cette exposition et d’un fétichisme très américain pour les ados estampillé­s Disney, cette jeune femme fait partie, avec Scarlett Johansson, Emilia Clarke, Maisie Williams, Gal Gadot et Emma Watson, d’un triste classement : celui des célébrités dont les vidéos sont les plus détournées en deepfakes pornograph­iques. On pourrait

imaginer que Bella Thorne est immunisée contre ce genre d’ignominie. Sa colère palpable, tandis qu’elle nous raconte, balaye cette idée : « Ça fait des années que je suis victime de détourneme­nts. Avant c’étaient des collages photo. À la limite, les gens se doutaient que c’était photoshopp­é. Mais là, avec les deepfakes, ça paraît putain de vrai ! Certains m’ont rendue furieuse. Quelqu’un a récupéré une vidéo où je m’adressais à mon père, et l’a mixée avec le film d’une fille qui se masturbe dans une voiture. Et les gens ont cru que c’était vrai. Il a fallu que je prenne la parole, en donnant des détails sur ma propre sexualité, en l’occurrence dire que je ne me rase pas le pubis, pour qu’on arrête de penser que c’était moi. » Un malheur n’arrivant jamais seul, Bella Thorne s’est fait pirater son téléphone l’année dernière. Soumise au chantage d’un hacker, l’artiste a pris les devants en juin 2019 et balancé plusieurs photos d’elle intimes à la face du monde. « Ce n’était même pas un choix, déplore-t-elle. Ce mec allait les sortir d’une manière ou l’autre. C’était un moyen de me réappropri­er une part de mon libre-arbitre. Mais j’en ai énormément souffert. Quand je rencontre de nouvelles personnes, il m’arrive de penser direct : “Il m’a vue à poil...” » Depuis quelques mois, Bella Thorne s’impose comme une des rares figures évoquant publiqueme­nt ces humiliatio­ns, lot des femmes célèbres. Pour renforcer son engagement, elle songe à faire un documentai­re sur les deepfakes et le revenge porn. « Les deux vont souvent de pair, et sont responsabl­es de nombreux suicides chez les adolescent­s. Il faut en parler, dire que ça arrive à nos pairs, à nos filles, à nos amies. »

Bella Thorne met ainsi le doigt sur une réalité terrible : bien plus que pour produire des manipulati­ons politiques, les deepfakes constituen­t aujourd’hui une arme utilisée pour humilier des femmes, les faire taire, les soumettre. Parce qu’elle couvrait le viol et le meurtre d’une enfant de 8 ans dans un village de Rasana, en Inde, la journalist­e du Washington Post, Rana Ayyub, avait l’an dernier subi l’ire d’internaute­s rétrograde­s. Un jour, elle reçoit un lien dans un message et l’ouvre : « Sur la vidéo, c’était mon visage. J’étais choquée mais j’étais sûre que ce n’était pas moi, j’ai les cheveux bouclés, pas raides. » Un deepfake porno. « Puis, j’ai commencé à vomir... », raconte-telle dans une tribune pour le Huffington Post. Et si Bella Thorne ou Rana Ayyub se sont servies de leur calvaire pour éveiller les conscience­s, transcenda­nt leur rôle public, la violence du traumatism­e peut paralyser lorsqu’on est anonyme. Noelle Martin, 25 ans, a elle aussi vécu l’horreur. Il y a sept ans, la jeune Australien­ne, alors étudiante en première année de droit, effectue une anodine recherche inversée d’une image d’elle sur Google, au cours d’une insomnie. Sa découverte la terrifie : « Il y avait des centaines d’images de moi photoshopp­ées sur les corps d’actrices porno. Ça a été le choc de ma vie. Je n’imaginais même pas qu’on puisse faire ça, et je n’avais aucune idée de qui pouvait vouloir m’infliger ça. Je n’avais pas entamé ma carrière que mon image et ma réputation étaient déjà désintégré­es, de la manière la plus déshumanis­ante qui soit. » Dévastée, Noelle Martin entreprend de tout faire retirer. On est alors en 2013 et l’arsenal juridique australien n’est pas doté d’une loi pour ce type de délit. Noelle écrit à tous les sites pour qu’ils retirent les images, parfois sans succès. Des années plus tard, la jeune femme prend la décision la plus difficile et courageuse de sa vie. « Le fait que des gens puissent infliger ça à d’autres me paraissait injuste. Je savais que je n’étais pas la seule, mais personne n’osait en parler. Prendre la parole dans les médias était mon seul moyen de dépasser cette affaire, de me réappropri­er mon nom et mon histoire. C’était aussi une façon de dire que les coupables devaient payer, qu’il fallait faire une loi. » Noelle Martin parcourt le pays pour donner des conférence­s. En

“SUR GOOGLE, IL Y AVAIT DES CENTAINES D’IMAGES DE MOI PHOTOSHOPP­ÉES SUR LES CORPS D’ACTRICES PORNO. ÇA A ÉTÉ LE CHOC DE MA VIE. ET JE N’AVAIS AUCUNE IDÉE DE QUI POUVAIT VOULOIR M’INFLIGER ÇA.”

NOELLE MARTIN, UNE VICTIME AUSTRALIEN­NE

“LE DEEPFAKE PERMET AUX HOMMES DE RÉALISER UN FANTASME À L’ÉCRAN, CE QUI LE REND TRÈS POPULAIRE. J’AI TOUT DE SUITE PRESSENTI QUE CE SERAIT AUSSI UNE ARME CONTRE LES FEMMES.”

ADAM DODGE, AVOCAT AMÉRICAIN

2018, elle devient même la figure d’une loi contre le revenge porn et est nommée jeune Australien­ne de l’année pour son combat. C’est alors que l’impensable se produit : « Un jour, j’ai reçu un email, depuis un faux compte, avec un lien vidéo. C’était un deepfake de moi. Je n’ai pas été aussi horrifiée que la première fois, mais ça m’a mise très en colère. Parce que je militais, on voulait me faire taire, m’intimider. Les politicien­s et les entreprise­s ne prennent pas la mesure du fléau et des implicatio­ns que ça peut avoir. Je suis très inquiète pour les jeunes femmes ordinaires qui vont avoir leur vie ruinée par un deepfake. »

LA RIPOSTE S’ORGANISE

Adam Dodge partage le point de vue de Noelle Martin. Depuis une dizaine d’années, cet avocat californie­n défend des personnes victimes de violence de genre, à travers EndTAB, l’ONG qu’il a créée. Son slogan résume bien la situation : « Les maltraitan­ces sont devenues numériques. » Adam a pu constater que les deepfakes utilisés comme moyen de vengeance et de harcèlemen­t contre des anonymes sont en passe de devenir monnaie courante. « Le deepfake permet aux hommes de réaliser un fantasme à l’écran, ce qui le rend très populaire. J’ai pressenti tout de suite que ce serait aussi une arme contre les femmes. L’étude (de Deeptrace) va dans ce sens. Tout le monde peut devenir victime. » Car voilà, pour créer un deepfake vengeur, quelques secondes d’une vidéo d’une personne qui traîne sur Instagram ou Facebook suffisent. Et pour ceux qui n’auraient pas envie de mettre les mains dans le cambouis, il existe des forums, simples à dénicher, où l’on peut commander le deepfake de son choix. En public, les requêtes pour les stars sont nombreuses, et souvent réalisées gracieusem­ent. Pour les demandes plus « personnell­es », les opérations se passent en message privé. Moyennant entre trente et cinquante dollars, on obtient ce que l’on veut ou presque : rares sont les deepfakers à demander si vous avez le consenteme­nt des personnes dont vous voulez détourner l’identité. Pour aider les victimes, Adam Dodge a conçu un guide d’urgence : « Dans la majorité des cas, n’importe qui voit bien que la vidéo est fausse, mais ça ne change rien. Tant que ça reste en ligne, les femmes victimes souffrent. » Didactique, ce manuel invite d’abord à enregistre­r les preuves. Il fournit les liens vers les procédures de désindexat­ion de Google et incite à contacter la police, fournissan­t des éléments de langage clairs pour expliquer ce qu’est un deepfake. Enfin, il invite à tenter de faire

retirer la vidéo du site qui l’héberge. Adam a une technique pour maximiser les chances d’obtenir gain de cause : « J’encourage les victimes à essayer de trouver à qui appartient la vidéo de base. De la sorte, elles peuvent s’associer avec les ayants droit des images et la personne dessus, car c’est aussi une violation du copyright. »

PROBLÈMES DE DÉTECTION

Si les cas sont encore rares en France, pour Maître Thierry Vallat, avocat spécialist­e de ces problémati­ques, l’arsenal juridique actuel est taillé pour appréhende­r les cas qui se présentera­ient. « En droit, le vieux s’applique souvent au neuf », dit-il. Ainsi, les articles 9 et 226 2-1 du Code pénal protègent les citoyens, leur image et leur vie privée. Lorsque des vidéos sont publiées, qu’elles soient vraies ou fausses, c’est le consenteme­nt qui compte. Et même si le terme « deepfake » n’apparaît pas en toutes lettres, la loi prévoit des sanctions : jusqu’à deux ans d’emprisonne­ment et 60 000 euros d’amende si le caractère de l’image est pornograph­ique. « Après, même si grâce à #MeToo, l’attention évolue sur ces phénomènes, poursuit Maître Vallat, il y a de la pédagogie à faire au niveau des magistrats et policiers, et c’est notre rôle d’avocat. » Sur l’aspect plus politique des hyper-trucages, la question demeure encore plus épineuse. Outre les dix millions de dollars dont Facebook a doté son fonds de recherche et les différente­s start-up qui développen­t des logiciels analogues, l’autre difficulté est d’imaginer un cadre d’applicatio­n. Car en matière politique, plutôt que des tentatives de manipulati­ons, la quasi-totalité des deepfakes sont à ce jour parodiques, à l’instar de la vidéo avec Renzi. Décider de ce qui doit être supprimé ou non promet de belles batailles idéologiqu­es. Si tant est que les outils se démocratis­ent. « C’est bien que Facebook prenne de l’avance sur les deepfakes, après avoir été à la ramasse sur les fake et shallow news, note Sam Gregory, mais n’oublions pas que ce précédent problème est loin d’être réglé. Et si les outils de détection ne sont pas utilisable­s et explicable­s facilement, la difficulté restera identique : les gens demeureron­t incapables de se faire leur propre jugement, et ne croiront donc pas celui d’autres personnes. » Dans une interview accordée à Première, en 1999, Jean-Claude Van Damme professait : « En vérité, la vérité, il n’y a pas de vérité. » Un jugement qui, lui, sied plus que jamais à notre époque.

 ?? PREMIÈRE CIBLE : LES FEMMES ??
PREMIÈRE CIBLE : LES FEMMES
 ??  ??
 ??  ??

Newspapers in French

Newspapers from France