FAKENEWS ET DEEPFAKES
Elles s’attaquent maintenant à la politique
Matteo Renzi, ancien Premier ministre d’Italie, fondateur du parti Italia Viva, est assis dans un bureau luxuriant, face caméra. Une peinture à l’huile est accrochée d’un côté, un buste de la Renaissance de l’autre côté.
Un technicien se faufile devant la caméra pour vérifier le son, puis c’est le moment de Matteo Renzi. Il commence par s’adresser à une personne dans l’assistance, que l’on ne voit pas, et la salue en chuchotant. Ensuite, il se tourne vers d’autres politiques présents. Giuseppe Conte, actuel Premier ministre, Luigi Di Maio, le vice-Premier ministre, Carlo Calenda, membre du Parlement européen : tous ont droit à un geste obscène fait avec le bras, ponctué d’une petite exclamation de mépris. Certains Italiens se sont précipités sur Twitter après avoir vu cette performance pour exprimer leur indignation. Mais ce n’était pas le vrai Matteo Renzi qui s’exprimait. À y regarder de plus près, la voix est différente, les gestes aussi. Même son visage semble étrangement lisse. Les traits de l’ex-Premier ministre ont été transplantés par des algorithmes sur le visage d’un comédien. La séquence était destinée à l’émission satirique italienne ‘Striscia la notizia’, diffusée de longue date. Cette vidéo est le dernier exemple en date de l’arrivée en politique de la technologie du “deepfake”, des vidéos générées par une intelligence artificielle pour berner les humains. Il y a seulement quelques années, ces “deepfakes” étaient une nouveauté, créée par des programmateurs amateurs. Aujourd’hui, ils sont de plus en plus considérés comme juste un nouveau service, disponible pour ceux qui disposent d’un peu d’argent liquide.
Les deepfakes sont de moins en moins chers à réaliser et leurs répercussions peuvent être graves. Des vidéos frauduleuses de chefs d’entreprise pourraient ruiner les entreprises. Les fausses alertes de banquiers pourraient faire basculer la bourse. Les petites entreprises et les particuliers pourraient se retrouver avec de gros soucis financiers ou de réputation.
Comme les élections approchent aux États-Unis, en Grande-Bretagne et ailleurs, les deepfakes pourraient une fois de plus être un obstacle à la vérité.
Partout dans le monde, des start-up, des chercheurs et des législateurs se sont hâtés de créer des outils pour atténuer ces risques. Mais la technologie elle-même se développe plus vite qu’on ne l’imaginait.
Hany Farid, professeur à l’Université de Californie à Berkeley, a passé des décennies à étudier la manipulation numérique: “En janvier 2019, les deepfakes étaient pleins de bugs, sautillants. Neuf mois plus tard, je n’ai jamais rien vu d’aussi rapide. Et ce n’est que la partie émergée de l’iceberg.”
Sur un point, les experts sont d’accord. Le simple risque d’un deepfake sape un principe humain fondamental : en croire ses yeux. Mais pouvezvous en croire vos yeux ?
La désinformation est aussi ancienne que la politique, et ses praticiens ont épousé le rythme des changements technologiques. Alors que les fausses nouvelles écrites ont été la marque de fabrique des dernières élections aux États-Unis et au Royaume-Uni, les images et les vidéos sont de plus en plus des objets de propagande, affirme Vidya Narayananan, chercheuse à l’Oxford Internet Institute. “[Ils] sont puissants pour façonner une situation. Si vous voyez une image, c’est très immédiat.” Des logiciels tels que Photoshop ont été utilisés pour créer une fausse image très partagée d’Emma González, une survivante de la fusillade du lycée de Parkland, désormais activiste du contrôle des armes à feu. Elle la montrait déchirant la Constitution américaine, en 2018.
Les vidéos truquées n’ont rien de nouveau. L’exemple récent le plus célèbre est la manipulation au ralenti d’un discours de la présidente démocrate de la Chambre des représentants, Nancy Pelosi, prononcé cette année. Le clip s’est répandu dans les médias conservateurs pour “prouver” sa sénilité, son alcoolisme ou un problème de santé mentale. Rudy Giuliani, l’avocat personnel du président Donald Trump, a retweeté la vidéo, avant de la supprimer mais tout en défendant son choix. Trump lui-même a posté une autre vidéo ralentie de Pelosi, qui est toujours en ligne : elle a près de 30 000 retweets et plus de 90 000 j’aime. La différence avec un deepfake est qu’avec un algorithme, les résultats auraient été beaucoup plus convaincants. La technologie qui sous-tend les deepfakes, connue sous le nom de Generative Adversarial Networks (GAN), n’a été inventée qu’en 2014. Les GAN sont constitués de deux réseaux informatiques rivaux. Un synthétiseur crée un contenu que le détecteur (ou ‘discriminateur’) compare aux images de la chose réelle. “Disons que le synthétiseur place le visage de quelqu’un sur le visage de quelqu’un d’autre”, résume M. Farid. “Le détecteur dit qu’il y a un artefact [une distorsion dans l’image], qu’il faut recommencer.” Grâce à des centaines de milliers d’essais et d’erreurs, les deux systèmes peuvent créer des vidéos extrêmement réalistes en collaborant.
Cette année a été l’année qui a vu les deepfakes sortir des mains de ceux qui possédaient des ordinateurs puissants, des cartes graphiques et au moins une certaine expertise technique. L’application DeepNude est sortie en juin et l’application ZAO en août.
La première, aujourd’hui fermée, produisait des nus féminins réalistes à partir de photographies en vêtements, ce qui a suscité une indignation compréhensible. La deuxième permettait aux utilisateurs de “poser” leur visage sur les visages des protagonistes de différents films en téléchargeant simplement quelques secondes de vidéo dans l’application chinoise gratuite. “Ces choses se démocratisent de plus en plus, et cela se produit très rapidement”, dit M. Farid.
Il n’est pas le seul à être choqué par le rythme de développement, du prototype créé par un chercheur à un service facilement accessible. “Nous savions que cela allait arriver, mais pas aussi vite”, reconnaît David Doermann, professeur à l’Université de Buffalo.
Comme M. Farid, M. Doermann travaille dans le domaine de la vision par ordinateur et du traitement de l’image depuis plus de deux décennies. Il est le consultant de l’application de vérification des vidéos Amber. “Il est difficile de prédire où iront les deepfakes dans les cinq prochaines années, étant donné qu’ils ne sont là que depuis cinq ans.”
La fabrication d’un deepfake est de plus en plus simple. Celle d’un bon deepfake est une autre affaire. Plus l’ordinateur et la carte graphique sont puissants, plus un GAN peut effectuer de cycles de calculs et meilleurs sont les résultats. De plus, bon nombre des plus “beaux” deepfakes ont été retouchés par des professionnels.
Compte tenu de ces limites, il n’est pas surprenant qu’un marché ait commencé à se développer. Une start-up japonaise appelée Deepfakes Web facture deux dollars l’heure de traitement pour créer des vidéos. Sur Fiverr, un réseau professionnel en ligne pour les indépendants, un utilisateur du nom de Deepfakes propose de mettre le visage des clients dans des clips vidéo.
L’échange de visage est peut-être la forme la plus courante de deepfakes, mais d’autres sont plus ambitieux. Ricky Wong, l’un des cofondateurs de la start-up Humen, explique qu’avec trois minutes d’images de mouvements et de matériel audiovisuel de professionnels, sa société peut faire “danser” tout le monde. “Nous essayons d’apporter du plaisir et de l’amusement dans la vie des gens”, dit-il. “Pas quelque chose comme un salut nazi, ce serait horrible.”
Le nombre de deepfakes audio est également à la hausse. Modulate, une start-up de Boston, crée des “skins audio”, des changeurs de voix en temps réel pour les jeux vidéo. “Beaucoup de gens consacrent beaucoup de temps et d’argent à bâtir leur personnalité dans les jeux”, dit Mike Pappas, cofondateur et directeur général de l’entreprise.
“Votre voix normale brise l’illusion que vous avez passé tant de temps à créer.” Au cours de notre conversation téléphonique, Mike Pappas fait une démonstration: sa voix devient la voix d’une femme, puis celle d’un collègue de travail : les voix sonnent un peu raide mais restent humaines. Mike Pappas reconnaît les risques d’usurpation d’identité. En août, le ‘Wall Street Journal’ a publié un article sur l’un des premiers cas connus d’usurpation d’identité par des médias synthétiques : des escrocs auraient utilisé une technologie de changement de voix disponible dans le commerce pour se faire passer pour un directeur général et extorquer des fonds.
Au fur et à mesure que des services tels que Modulate se développent, le nombre d’affaires judiciaires est susceptible d’augmenter. M. Pappas dit que Modulate filtre les demandes pour éviter les usurpations d’identité. “Nous nous sommes rendu compte qu’il est important de pouvoir dormir la nuit”, dit-il. Son entreprise place également un filigrane numérique sur les fichiers audio afin de réduire le risque qu’un “skin” vocal de jeux vidéo puisse passer pour la voix d’une personne existante.
Tout en se promenant dans le parc du Queens’ College, à Cambridge, vieux de près de 600 ans, Henry Ajder décrit ce qui est devenu sa routine quotidienne : suivre la création et la diffusion de vidéos truquées dans les recoins les plus sombres de l’Internet.
Le travail d’Ajder en tant que responsable de la communication et de l’analyse au sein de la start-up Deeptrace l’a amené à enquêter sur tout, de la fausse pornographie à la politique. Dans un rapport publié le mois dernier par Deeptrace, l’ampleur du problème a été révélée: la start-up a identifié près de 15 000 deepfakes en ligne au cours des sept derniers mois. 96 % étaient pornographiques.
L’un des cas d’études politiques d’Ajder a été de déterminer si un deepfake avait ou non contribué à une tentative de coup d’État au Gabon. Ali Bongo Ondimba, président de la nation africaine, est tombé malade en octobre de l’année dernière. Il se trouvait depuis lors au Maroc et peu d’informations filtraient sur sa santé. Puis, en décembre, une vidéo surprise de lui a été diffusée, suscitant des spéculations de la part de ses opposants politiques.
“C’était bizarre : les yeux ne bougeaient pas correctement, la tête ne bougeait pas naturellement. La réponse immédiate était qu’il s’agissait d’un deepfake” dit Ajder. Une semaine après la diffusion de la vidéo, des officiers subalternes gabonais ont tenté un coup d’État, qui a été rapidement écrasé.
Deeptrace n’a pas trouvé de trace de manipulation mais, pour Ajder, cela peut ne pas être pertinent. L’important, c’était l’incertitude créée. “Même avant que ces vidéos ne deviennent très bonnes ou très diffusées, nous voyons déjà le spectre des deepfakes qui obsède les gens”, dit-il. “Ça montre à quel point le simple doute est puissant… cela concerne n’importe quelle vidéo dont on veut qu’elle soit fausse.”
“En janvier 2019, les deepfakes étaient plein de bugs et sautillants. Neuf mois plus tard, je n’ai jamais vu quelque chose évoluer si vite. Et ce n’est que la partie émergée de l’iceberg.”
Kanishk Karan, chercheur au Digital Forensic Research Lab, qui fait partie du groupe de réflexion américain Atlantic Council, évoque un autre deepfake possible, cette fois en Malaisie : une vidéo prétendant montrer le ministre des Affaires économiques Azmin Ali en galante compagnie, avec un homme, conseiller d’un autre ministre.
Les lois en Malaisie remontent à l’époque coloniale et la discrimination à l’encontre des communautés LGBT est persistante. La séquence, diffusée en juin, a naturellement