Le «fake porn» à la portée de tous
L’intelligence artificielle se démocratise à une vitesse fulgurante. Pour s’en convaincre, il vaut la peine de s’intéresser au phénomène du fake porn ou deepfake porn. Le principe est simple: il s’agit de prendre des extraits de films pornographiques et d’ajouter, à la place de la tête de l’actrice ou de l’acteur, le visage d’une célébrité ou d’une connaissance. Le principe est simple mais la réalisation est complexe, puisqu’on parle bien d’une vidéo et non d’une simple photo. Mais des applications effectuent désormais ces vidéos en quelques clics…
La semaine passée, la société Gfycat, qui permet de créer des GIF, soit des petits clips, est partie en guerre contre le fake porn en purgeant de son site des centaines de ces vidéos. Mais la lutte s’annonce ardue. A elle seule, l’application FakeApp, qui permet de créer ces vidéos, a été téléchargée plus de 100 000 fois. Embarquant un système d’intelligence artificielle, elle ne nécessite que quelques photos de la victime pour créer un clip X à la qualité impressionnante. Au premier coup d’oeil, pas facile de distinguer qu’il s’agit d’un faux.
Il est ainsi aisé d’insérer une connaissance dans une vidéo X, avec les dégâts que l’on imagine. A voir l’intérêt de ces technologies sur les forums de discussion spécialisés, il est à craindre que ce phénomène prenne de l’ampleur.
▅