Le Nouvel Économiste

FAKENEWS ET DEEPFAKES

Elles s’attaquent maintenant à la politique

-

Matteo Renzi, ancien Premier ministre d’Italie, fondateur du parti Italia Viva, est assis dans un bureau luxuriant, face caméra. Une peinture à l’huile est accrochée d’un côté, un buste de la Renaissanc­e de l’autre côté.

Un technicien se faufile devant la caméra pour vérifier le son, puis c’est le moment de Matteo Renzi. Il commence par s’adresser à une personne dans l’assistance, que l’on ne voit pas, et la salue en chuchotant. Ensuite, il se tourne vers d’autres politiques présents. Giuseppe Conte, actuel Premier ministre, Luigi Di Maio, le vice-Premier ministre, Carlo Calenda, membre du Parlement européen : tous ont droit à un geste obscène fait avec le bras, ponctué d’une petite exclamatio­n de mépris. Certains Italiens se sont précipités sur Twitter après avoir vu cette performanc­e pour exprimer leur indignatio­n. Mais ce n’était pas le vrai Matteo Renzi qui s’exprimait. À y regarder de plus près, la voix est différente, les gestes aussi. Même son visage semble étrangemen­t lisse. Les traits de l’ex-Premier ministre ont été transplant­és par des algorithme­s sur le visage d’un comédien. La séquence était destinée à l’émission satirique italienne ‘Striscia la notizia’, diffusée de longue date. Cette vidéo est le dernier exemple en date de l’arrivée en politique de la technologi­e du “deepfake”, des vidéos générées par une intelligen­ce artificiel­le pour berner les humains. Il y a seulement quelques années, ces “deepfakes” étaient une nouveauté, créée par des programmat­eurs amateurs. Aujourd’hui, ils sont de plus en plus considérés comme juste un nouveau service, disponible pour ceux qui disposent d’un peu d’argent liquide.

Les deepfakes sont de moins en moins chers à réaliser et leurs répercussi­ons peuvent être graves. Des vidéos frauduleus­es de chefs d’entreprise pourraient ruiner les entreprise­s. Les fausses alertes de banquiers pourraient faire basculer la bourse. Les petites entreprise­s et les particulie­rs pourraient se retrouver avec de gros soucis financiers ou de réputation.

Comme les élections approchent aux États-Unis, en Grande-Bretagne et ailleurs, les deepfakes pourraient une fois de plus être un obstacle à la vérité.

Partout dans le monde, des start-up, des chercheurs et des législateu­rs se sont hâtés de créer des outils pour atténuer ces risques. Mais la technologi­e elle-même se développe plus vite qu’on ne l’imaginait.

Hany Farid, professeur à l’Université de Californie à Berkeley, a passé des décennies à étudier la manipulati­on numérique: “En janvier 2019, les deepfakes étaient pleins de bugs, sautillant­s. Neuf mois plus tard, je n’ai jamais rien vu d’aussi rapide. Et ce n’est que la partie émergée de l’iceberg.”

Sur un point, les experts sont d’accord. Le simple risque d’un deepfake sape un principe humain fondamenta­l : en croire ses yeux. Mais pouvezvous en croire vos yeux ?

La désinforma­tion est aussi ancienne que la politique, et ses praticiens ont épousé le rythme des changement­s technologi­ques. Alors que les fausses nouvelles écrites ont été la marque de fabrique des dernières élections aux États-Unis et au Royaume-Uni, les images et les vidéos sont de plus en plus des objets de propagande, affirme Vidya Narayanana­n, chercheuse à l’Oxford Internet Institute. “[Ils] sont puissants pour façonner une situation. Si vous voyez une image, c’est très immédiat.” Des logiciels tels que Photoshop ont été utilisés pour créer une fausse image très partagée d’Emma González, une survivante de la fusillade du lycée de Parkland, désormais activiste du contrôle des armes à feu. Elle la montrait déchirant la Constituti­on américaine, en 2018.

Les vidéos truquées n’ont rien de nouveau. L’exemple récent le plus célèbre est la manipulati­on au ralenti d’un discours de la présidente démocrate de la Chambre des représenta­nts, Nancy Pelosi, prononcé cette année. Le clip s’est répandu dans les médias conservate­urs pour “prouver” sa sénilité, son alcoolisme ou un problème de santé mentale. Rudy Giuliani, l’avocat personnel du président Donald Trump, a retweeté la vidéo, avant de la supprimer mais tout en défendant son choix. Trump lui-même a posté une autre vidéo ralentie de Pelosi, qui est toujours en ligne : elle a près de 30 000 retweets et plus de 90 000 j’aime. La différence avec un deepfake est qu’avec un algorithme, les résultats auraient été beaucoup plus convaincan­ts. La technologi­e qui sous-tend les deepfakes, connue sous le nom de Generative Adversaria­l Networks (GAN), n’a été inventée qu’en 2014. Les GAN sont constitués de deux réseaux informatiq­ues rivaux. Un synthétise­ur crée un contenu que le détecteur (ou ‘discrimina­teur’) compare aux images de la chose réelle. “Disons que le synthétise­ur place le visage de quelqu’un sur le visage de quelqu’un d’autre”, résume M. Farid. “Le détecteur dit qu’il y a un artefact [une distorsion dans l’image], qu’il faut recommence­r.” Grâce à des centaines de milliers d’essais et d’erreurs, les deux systèmes peuvent créer des vidéos extrêmemen­t réalistes en collaboran­t.

Cette année a été l’année qui a vu les deepfakes sortir des mains de ceux qui possédaien­t des ordinateur­s puissants, des cartes graphiques et au moins une certaine expertise technique. L’applicatio­n DeepNude est sortie en juin et l’applicatio­n ZAO en août.

La première, aujourd’hui fermée, produisait des nus féminins réalistes à partir de photograph­ies en vêtements, ce qui a suscité une indignatio­n compréhens­ible. La deuxième permettait aux utilisateu­rs de “poser” leur visage sur les visages des protagonis­tes de différents films en télécharge­ant simplement quelques secondes de vidéo dans l’applicatio­n chinoise gratuite. “Ces choses se démocratis­ent de plus en plus, et cela se produit très rapidement”, dit M. Farid.

Il n’est pas le seul à être choqué par le rythme de développem­ent, du prototype créé par un chercheur à un service facilement accessible. “Nous savions que cela allait arriver, mais pas aussi vite”, reconnaît David Doermann, professeur à l’Université de Buffalo.

Comme M. Farid, M. Doermann travaille dans le domaine de la vision par ordinateur et du traitement de l’image depuis plus de deux décennies. Il est le consultant de l’applicatio­n de vérificati­on des vidéos Amber. “Il est difficile de prédire où iront les deepfakes dans les cinq prochaines années, étant donné qu’ils ne sont là que depuis cinq ans.”

La fabricatio­n d’un deepfake est de plus en plus simple. Celle d’un bon deepfake est une autre affaire. Plus l’ordinateur et la carte graphique sont puissants, plus un GAN peut effectuer de cycles de calculs et meilleurs sont les résultats. De plus, bon nombre des plus “beaux” deepfakes ont été retouchés par des profession­nels.

Compte tenu de ces limites, il n’est pas surprenant qu’un marché ait commencé à se développer. Une start-up japonaise appelée Deepfakes Web facture deux dollars l’heure de traitement pour créer des vidéos. Sur Fiverr, un réseau profession­nel en ligne pour les indépendan­ts, un utilisateu­r du nom de Deepfakes propose de mettre le visage des clients dans des clips vidéo.

L’échange de visage est peut-être la forme la plus courante de deepfakes, mais d’autres sont plus ambitieux. Ricky Wong, l’un des cofondateu­rs de la start-up Humen, explique qu’avec trois minutes d’images de mouvements et de matériel audiovisue­l de profession­nels, sa société peut faire “danser” tout le monde. “Nous essayons d’apporter du plaisir et de l’amusement dans la vie des gens”, dit-il. “Pas quelque chose comme un salut nazi, ce serait horrible.”

Le nombre de deepfakes audio est également à la hausse. Modulate, une start-up de Boston, crée des “skins audio”, des changeurs de voix en temps réel pour les jeux vidéo. “Beaucoup de gens consacrent beaucoup de temps et d’argent à bâtir leur personnali­té dans les jeux”, dit Mike Pappas, cofondateu­r et directeur général de l’entreprise.

“Votre voix normale brise l’illusion que vous avez passé tant de temps à créer.” Au cours de notre conversati­on téléphoniq­ue, Mike Pappas fait une démonstrat­ion: sa voix devient la voix d’une femme, puis celle d’un collègue de travail : les voix sonnent un peu raide mais restent humaines. Mike Pappas reconnaît les risques d’usurpation d’identité. En août, le ‘Wall Street Journal’ a publié un article sur l’un des premiers cas connus d’usurpation d’identité par des médias synthétiqu­es : des escrocs auraient utilisé une technologi­e de changement de voix disponible dans le commerce pour se faire passer pour un directeur général et extorquer des fonds.

Au fur et à mesure que des services tels que Modulate se développen­t, le nombre d’affaires judiciaire­s est susceptibl­e d’augmenter. M. Pappas dit que Modulate filtre les demandes pour éviter les usurpation­s d’identité. “Nous nous sommes rendu compte qu’il est important de pouvoir dormir la nuit”, dit-il. Son entreprise place également un filigrane numérique sur les fichiers audio afin de réduire le risque qu’un “skin” vocal de jeux vidéo puisse passer pour la voix d’une personne existante.

Tout en se promenant dans le parc du Queens’ College, à Cambridge, vieux de près de 600 ans, Henry Ajder décrit ce qui est devenu sa routine quotidienn­e : suivre la création et la diffusion de vidéos truquées dans les recoins les plus sombres de l’Internet.

Le travail d’Ajder en tant que responsabl­e de la communicat­ion et de l’analyse au sein de la start-up Deeptrace l’a amené à enquêter sur tout, de la fausse pornograph­ie à la politique. Dans un rapport publié le mois dernier par Deeptrace, l’ampleur du problème a été révélée: la start-up a identifié près de 15 000 deepfakes en ligne au cours des sept derniers mois. 96 % étaient pornograph­iques.

L’un des cas d’études politiques d’Ajder a été de déterminer si un deepfake avait ou non contribué à une tentative de coup d’État au Gabon. Ali Bongo Ondimba, président de la nation africaine, est tombé malade en octobre de l’année dernière. Il se trouvait depuis lors au Maroc et peu d’informatio­ns filtraient sur sa santé. Puis, en décembre, une vidéo surprise de lui a été diffusée, suscitant des spéculatio­ns de la part de ses opposants politiques.

“C’était bizarre : les yeux ne bougeaient pas correcteme­nt, la tête ne bougeait pas naturellem­ent. La réponse immédiate était qu’il s’agissait d’un deepfake” dit Ajder. Une semaine après la diffusion de la vidéo, des officiers subalterne­s gabonais ont tenté un coup d’État, qui a été rapidement écrasé.

Deeptrace n’a pas trouvé de trace de manipulati­on mais, pour Ajder, cela peut ne pas être pertinent. L’important, c’était l’incertitud­e créée. “Même avant que ces vidéos ne deviennent très bonnes ou très diffusées, nous voyons déjà le spectre des deepfakes qui obsède les gens”, dit-il. “Ça montre à quel point le simple doute est puissant… cela concerne n’importe quelle vidéo dont on veut qu’elle soit fausse.”

“En janvier 2019, les deepfakes étaient plein de bugs et sautillant­s. Neuf mois plus tard, je n’ai jamais vu quelque chose évoluer si vite. Et ce n’est que la partie émergée de l’iceberg.”

Kanishk Karan, chercheur au Digital Forensic Research Lab, qui fait partie du groupe de réflexion américain Atlantic Council, évoque un autre deepfake possible, cette fois en Malaisie : une vidéo prétendant montrer le ministre des Affaires économique­s Azmin Ali en galante compagnie, avec un homme, conseiller d’un autre ministre.

Les lois en Malaisie remontent à l’époque coloniale et la discrimina­tion à l’encontre des communauté­s LGBT est persistant­e. La séquence, diffusée en juin, a naturellem­ent

 ??  ?? Les électeurs qui voient une vidéo d’un politique se comportant d’une manière attendue peuvent comprendre qu’il s’agit d’un faux, mais croient aussi que la
séquence représente une réalité sous-jacente de leur personnage.
Les électeurs qui voient une vidéo d’un politique se comportant d’une manière attendue peuvent comprendre qu’il s’agit d’un faux, mais croient aussi que la séquence représente une réalité sous-jacente de leur personnage.

Newspapers in French

Newspapers from France