Deepfakes pornographiques: L'UE lutte-t-elle assez contre les images générées par l’IA ?
La manipulation d'images et de vidéos pour créer des contenus à caractère sexuel est sur le point d'être considérée comme une infraction pénale dans tous les pays de l'Union européenne.
La première directive sur la violence à l'égard des femmes passera par la phase d'approbation finale en avril 2024.
Ces montages photo ou vidéo hyperréalistes sont en général illégaux, et peuvent ruiner la réputation et la vie des personnes dont ils s'accaparent l'image. Les victimes voient la diffusion de ces contenus se propager sur des plateformes en ligne. Il est difficile de mettre fin à la propagation de deepfakes.
Mais qu'est-ce qui va changer avec cette nouvelle directive ? Et que se passera-t-il si des femmes vivant dans l'Union européenne sont victimes de manipulations effectuées dans des pays extérieurs à l'Union européenne ?
Les victimes sont toujours des femmes
Les sites web qui permettent de créer des "deepfakes" sexuels sont à portée de clic sur n'importe quel moteur de recherche et sont gratuits de surcroît.
La création d'un deepfake sexuel prend moins de 25 minutes et ne coûte rien, en utilisant uniquement une photographie sur laquelle le visage est clairement visible, selon l'étude 2023 State of Deepfakes.
Sur un échantillon de plus de 95 000 vidéos de deepfakes analysées entre 2019 et 2023, l'étude a révélé une augmentation de ces contenus de 550%.
Selon Henry Ajder, expert en intelligence artificielle et en deepfakes, ceux qui utilisent ces outils cherchent à "diffamer, humilier, traumatiser."
"Il est important de noter que ces outils de déshabillage ne fonctionnent pas sur les hommes. Ils sont spécifiquement conçus pour cibler les femmes. C'est un bon exemple de technologie clairement malveillante. Elle n'a rien de neutre", ajoute-t-il.
Les créateurs de deepfakes pornographiques recherchent les photos de leurs victimes "partout et n'importe où".
"_Elles peuvent provenir de leur compte Instagram, de leur compte Facebook, de leur photo de profil WhatsAp_p", explique Amanda Manyame, consultante en droits numériques et en droit à Equality Now.
Lacybersécurité n'est pas au niveau
Lorsque les femmes tombent sur des "deepfakes" les mettant en scène, la question de la prévention se pose.
Selon une experte en cybersécurité, la réponse n'est pas tant dans la prévention, mais dans l'action rapide pour pouvoir les supprimer.
"Je constate que lorsqu'un incident de ce type se produit dans le domaine numérique, les gens disent qu'il ne faut pas mettre ses photos en ligne, mais c'est la même logique que de dire qu'il ne faut pas sortir dans la rue pour ne pas avoir d'accident", explique Rayna Stamboliyska.
"Malheureusement, la cybersécurité ne peut pas être d'un grand secours dans ces cas-là, car il s'agit de démanteler le réseau de diffusion et de supprimer le contenu en même temps", ajoute l'experte en cybersécurité.
Actuellement, les victimes de "deepfakes" pornographiques s'appuient sur une série de lois