Des fake news en vidéo
« Aujourd’hui, nous avons éradiqué le sida, merci Dieu, merci Donald Trump » : on jurerait que le président des États-Unis prononce bel et bien ces mots dans une vidéo très partagée mise en ligne cette semaine par
l’association Solidarité Sida. Il s’agit bien sûr d’une deep fake, ou hypertrucage, une vidéo savamment truquée qu’on jurerait authentique. Au-delà du coup de publicité de l’association, le développement récent de cette technique avancée de fake news depuis deux ans inquiète. Ces hypertrucages sont très difficiles à repérer par les algorithmes, et pourraient être employés pour manipuler la population, par exemple lors de campagnes électorales.
Des centaines de photos ou vidéos de la personne piégée sont rassemblées par l’auteur de la vidéo truquée.
Il est bien plus facile de faire une vidéo hypertruquée avec des célébrités, car leurs images sont nombreuses et accessibles.
Ces photos sont chargées dans la mémoire d’un programme d’intelligence artificielle, appelé « réseau de neurones artificiels » (neural network).
La structure interconnectée du programme s’inspire des réseaux de neurones biologiques : chaque neurone est programmé pour transmettre une information
(signal unique) ou l’évacuer.
Le programme établit des connexions statistiques entre les expressions faciales de la personne et les mots qu’elle prononce.
Le programme peut aussi établir un lien avec des postures physiques, ce qui permet de reproduire des habitudes comme la main avec le doigt levé de Donald Trump.
En fonction du discours entré dans le programme, une vidéo deepfake est générée en reproduisant des enchaînements d’images et de sons statistiquement liés à la prononciation des mots.