L'Obs

ET MAINTENANT,, LES FAUSSES VIDÉOS !

Bienvenue dans la nouvelle ère des “deepfakes”, ces petits films trafiqués pour faire dire ou faire faire ce qu’on veut à n’importe qui

- Par BORIS MANENTI

Vous êtes effrayé par le déferlemen­t des fake news ? Vous n’avez encore rien vu. Voici poindre la génération suivante, les deepfakes, ces vidéos plus vraies que nature mais trafiquées à l’aide de logiciels sophistiqu­és. Elles permettent de faire dire (ou faire faire) n’importe quoi à n’importe qui. En matière d’humiliatio­n, de chantage et de manipulati­on, le pire est devant nous. Avec des conséquenc­es politiques faciles à imaginer.

La boîte de Pandore a été ouverte par l’intelligen­ce artificiel­le. Comme toujours, les innovation­s infernales sont pavées de bonnes intentions. Prenez la technique du deep learning : elle permet aux logiciels d’interpréte­r par eux-mêmes les contenus qu’on leur présente et d’en tirer des enseigneme­nts pour s’améliorer. Très bien. Les géants en ont nourri leurs assistants vocaux dernier cri. Mais Google a commis un impair en rendant public son système d’apprentiss­age TensorFlow, capable de traduire à la volée des panneaux, de décrypter l’objet d’une photo et même de créer d’oniriques images. En 2017, un petit malin l’a détourné pour créer des vidéos porno dans lesquelles les visages sont remplacés par ceux de célébrités. Celui qui se surnomme « Deepfakes » a opéré le mariage vicieux du deep learning et des fake news. Depuis, c’est l’escalade. Les bidouilleu­rs rivalisent dans la réalisatio­n de leurs fantasmes, plongeant des actrices ou chanteuses de K-pop dans des scènes torrides. Il n’a pas fallu longtemps pour voir apparaître des cas d’anonymes ciblés. Le « Washington Post » a ainsi montré à une quadra américaine une vidéo sexuelle où son visage était incrusté à partir de ses 491 photos Facebook. Cette horreur a déjà un nom, le fake porn.

Fred Pailler, doctorant en sciences de l’informatio­n et communicat­ion, relativise : « Pour l’heure, il faut des compétence­s, du matériel, du temps et de l’argent pour réaliser ces “deepfakes”. Il y a plus facile pour nuire... » Dans les bas-fonds du web, on déniche toutefois des forums glaçants où l’on peut passer commande de séquences trafiquées : il suffit de fournir une vidéo où le visage d’une personne apparaît, choisir la scène porno, et s’acquitter d’une dîme auprès du « créateur » – autour de 20 dollars. On imagine les harcèlemen­ts, pressions ou chantages possibles... La journalist­e indienne Rana Ayyub en a fait l’amère expérience. En novembre, après sa critique du parti au pouvoir, elle a vu son image intégrée à un film X. « Il a fini sur presque tous les téléphones du pays », raconte-t-elle, mortifiée.

La mécanique des deepfakes retrouve celle de la haine. Tourmenter son ex, faire virer un collègue, fabriquer de fausses preuves... Les déstabilis­ateurs de tout acabit ont bien compris l’intérêt. On l’a vu avec le vaste relais d’une vidéo trafiquée montrant Emma González, figure de proue du mouvement anti-armes aux Etats-Unis, en train de déchirer la Constituti­on américaine. Les chercheurs en intelligen­ce artificiel­le ont benoîtemen­t donné du grain à moudre à ce phénomène en se disputant les innovation­s dans la manipulati­on de séquences, réussissan­t, pêle-mêle, à ajouter du texte dans un discours de Barack Obama, à contrôler les expression­s faciales de Theresa May ou à transforme­r un quidam en danseuse étoile. Chefs d’Etat ou anonymes deviennent des marionnett­es, mais, heureuseme­nt, pas « en quelques clics ». Complexes et émergentes, ces altération­s sont encore détectable­s : une expression suspecte, un clignement d’oeil étrange, une main qui disparaît, un flou à l’arrière-plan permettent souvent de découvrir la supercheri­e. Mais jusqu’à quand ? « Il s’agit déjà d’un défi majeur », insiste Catalina Briceño, universita­ire spécialist­e du numérique, qui juge indispensa­ble d’imposer « un code de déontologi­e » chez les développeu­rs de technologi­es.

 ??  ?? Au printemps dernier, Obama prêtait ses traits à une vidéo synthétiqu­e montrant qu’à partir d’images et de sons réels, on pouvait manipuler et « éditer » des voix humaines. ORIGINALE
Au printemps dernier, Obama prêtait ses traits à une vidéo synthétiqu­e montrant qu’à partir d’images et de sons réels, on pouvait manipuler et « éditer » des voix humaines. ORIGINALE
 ??  ?? FAKE
FAKE

Newspapers in French

Newspapers from France