ET MAINTENANT,, LES FAUSSES VIDÉOS !
Bienvenue dans la nouvelle ère des “deepfakes”, ces petits films trafiqués pour faire dire ou faire faire ce qu’on veut à n’importe qui
Vous êtes effrayé par le déferlement des fake news ? Vous n’avez encore rien vu. Voici poindre la génération suivante, les deepfakes, ces vidéos plus vraies que nature mais trafiquées à l’aide de logiciels sophistiqués. Elles permettent de faire dire (ou faire faire) n’importe quoi à n’importe qui. En matière d’humiliation, de chantage et de manipulation, le pire est devant nous. Avec des conséquences politiques faciles à imaginer.
La boîte de Pandore a été ouverte par l’intelligence artificielle. Comme toujours, les innovations infernales sont pavées de bonnes intentions. Prenez la technique du deep learning : elle permet aux logiciels d’interpréter par eux-mêmes les contenus qu’on leur présente et d’en tirer des enseignements pour s’améliorer. Très bien. Les géants en ont nourri leurs assistants vocaux dernier cri. Mais Google a commis un impair en rendant public son système d’apprentissage TensorFlow, capable de traduire à la volée des panneaux, de décrypter l’objet d’une photo et même de créer d’oniriques images. En 2017, un petit malin l’a détourné pour créer des vidéos porno dans lesquelles les visages sont remplacés par ceux de célébrités. Celui qui se surnomme « Deepfakes » a opéré le mariage vicieux du deep learning et des fake news. Depuis, c’est l’escalade. Les bidouilleurs rivalisent dans la réalisation de leurs fantasmes, plongeant des actrices ou chanteuses de K-pop dans des scènes torrides. Il n’a pas fallu longtemps pour voir apparaître des cas d’anonymes ciblés. Le « Washington Post » a ainsi montré à une quadra américaine une vidéo sexuelle où son visage était incrusté à partir de ses 491 photos Facebook. Cette horreur a déjà un nom, le fake porn.
Fred Pailler, doctorant en sciences de l’information et communication, relativise : « Pour l’heure, il faut des compétences, du matériel, du temps et de l’argent pour réaliser ces “deepfakes”. Il y a plus facile pour nuire... » Dans les bas-fonds du web, on déniche toutefois des forums glaçants où l’on peut passer commande de séquences trafiquées : il suffit de fournir une vidéo où le visage d’une personne apparaît, choisir la scène porno, et s’acquitter d’une dîme auprès du « créateur » – autour de 20 dollars. On imagine les harcèlements, pressions ou chantages possibles... La journaliste indienne Rana Ayyub en a fait l’amère expérience. En novembre, après sa critique du parti au pouvoir, elle a vu son image intégrée à un film X. « Il a fini sur presque tous les téléphones du pays », raconte-t-elle, mortifiée.
La mécanique des deepfakes retrouve celle de la haine. Tourmenter son ex, faire virer un collègue, fabriquer de fausses preuves... Les déstabilisateurs de tout acabit ont bien compris l’intérêt. On l’a vu avec le vaste relais d’une vidéo trafiquée montrant Emma González, figure de proue du mouvement anti-armes aux Etats-Unis, en train de déchirer la Constitution américaine. Les chercheurs en intelligence artificielle ont benoîtement donné du grain à moudre à ce phénomène en se disputant les innovations dans la manipulation de séquences, réussissant, pêle-mêle, à ajouter du texte dans un discours de Barack Obama, à contrôler les expressions faciales de Theresa May ou à transformer un quidam en danseuse étoile. Chefs d’Etat ou anonymes deviennent des marionnettes, mais, heureusement, pas « en quelques clics ». Complexes et émergentes, ces altérations sont encore détectables : une expression suspecte, un clignement d’oeil étrange, une main qui disparaît, un flou à l’arrière-plan permettent souvent de découvrir la supercherie. Mais jusqu’à quand ? « Il s’agit déjà d’un défi majeur », insiste Catalina Briceño, universitaire spécialiste du numérique, qui juge indispensable d’imposer « un code de déontologie » chez les développeurs de technologies.