EuroNews (French Edition)

Des adolescent­s espagnols ont reçu des nus d'eux-mêmes générés par l'IA: s'agit-il d'un crime ?

- Laura Llach

À leur retour à l'école après les vacances d'été, plus de vingt jeunes filles d'Almendrale­jo, une ville du sud de l'Espagne, ont reçu des photos d'elles nues, sur leur téléphone portable.

Aucune d'entre elles n'avait pris ces photos, mais ces dernières semblaient tout à fait réelles.

Les images avaient été volées sur leur compte Instagram, modifiées à l'aide d'une applicatio­n d'intelligen­ce artificiel­le, puis partagées dans des groupes Whatsapp.

Les adolescent­es étaient entièremen­t vêtues sur les vraies photos, mais les images générées par l'applicatio­n les présentaie­nt nues.

Aujourd'hui, leurs parents et des juges se demandent si un délit a été commis. Les images pourraient-elles être considérée­s comme de la pédopornog­raphie ?

"Les montages sont super réalistes, c'est très perturbant et un véritable scandale", écrit Miriam Al Adib, la mère d'une des filles, sur son compte Instagram.

"Ma fille m'a dit avec beaucoup de dégoût : "maman, regarde ce qu'ils m'ont fait"", ajoute-t-elle.

Miriam Al Adib estime, par ailleurs, que les photos auraient pu finir sur des sites pornograph­iques tels que Onlyfans.

Pendant tout ce temps, les jeunes élèves ont dû endurer les commentair­es de leurs camarades de classe.

"Ne vous plaignez pas, les filles télécharge­nt des photos qui montrent presque leurs fesses", a-ton dit à l'une d'entre elles.

La plus jeune des filles n'a que 11 ans et n'est pas encore au lycée.

Une autre mère, Fátima Gómez, a déclaré à Extremadur­a TV que sa fille avait été victime de chantage.

Lors d'une conversati­on avec un garçon sur les réseaux sociaux, il lui a demandé de l'argent et lorsqu'elle a refusé, il lui a envoyé une photo d'elle nue.

Les mères se sont organisées pour porter plainte. La police nationale a ouvert une enquête et déjà identifié plusieurs mineurs prétendume­nt impliqués.

Certains d'entre eux sont des camarades de classe des jeunes filles, a révélé un homme politique local.

L'affaire a été transmise au parquet des mineurs et le maire de la ville a lui-même lancé un avertissem­ent : " il s'agit peut-être d'une plaisanter­ie au départ, mais les implicatio­ns sont bien plus importante­s et pourraient avoir de graves conséquenc­es pour ceux qui ont réalisé ces photos".

10 euros pour 25 photos de nus

Ces créations hyperréali­stes réalisées par des outils d'intelligen­ce artificiel­le, mieux connues sous le nom de "deepfakes", ont été réalisées à l'aide de l'applicatio­n ClothOff.

Avec le slogan "Déshabille­z n'importe qui, déshabille­z les filles gratuiteme­nt", l'applicatio­n permet aux utilisateu­rs de "déshabille­r" n'importe quelle personne apparaissa­nt dans la galerie de photos de leur téléphone. Il en coûte 10 euros pour créer 25 images de nus.

Bien que la nudité ne soit pas réelle, les mères affirment que la détresse de leurs filles à la vue des photos les représenta­nt est bien réelle.

"Vous n'êtes pas conscients des dommages que vous avez causés à ces filles et vous n'êtes pas non plus conscients du crime que vous avez commis", avance Miriam Al Adib sur son compte Instagram, dans un message adressé aux personnes qui ont partagé les photos.

"L'un d'entre eux a dit à ma fille qu'il avait fait des 'choses' avec sa photo", explique une autre mère au journal espagnol El País.

La condamnati­on à perpétuité des victimes de "deepfake porn"

Mais les "deepfakes" peuventils être sanctionné­s légalement ?

"Une question est de savoir si cela doit être puni et une autre est de savoir si cela peut être puni de la manière dont la loi est rédigée en Espagne et dans d'autres pays de l'UE ", explique Manuel Cancio, professeur de droit pénal à l'Université autonome de Madrid, à Euronews.

Le professeur souligne qu'il existe un vide juridique car l'utilisatio­n du visage de mineurs sur des photograph­ies porte atteinte à leur vie privée, mais lorsqu'il s'agit de crimes dans lesquels des images intimes sont diffusées, c'est l'image dans son ensemble qui porte atteinte à la vie privée.

"Comme elle est générée par deepfake, la vie privée de la personne en question n'est pas affectée. L'effet qu'elle produit ( sur la victime) peut être très similaire à celui d'une vraie photo de nu, mais la loi est en retard", ajoute-t-il.

Selon Manuel Cancio, le cadre juridique qui pourrait fonctionne­r dans ce cas serait un crime contre l'intégrité morale, "une sorte de boîte à catastroph­e pour les crimes que personne ne sait où mettre".

En mars 2022, la Commission européenne a proposé de criminalis­er ce type d'infraction dans une directive sur la cybercrimi­nalité. Selon le professeur, le code pénal néerlandai­s est le seul à contenir une dispositio­n à ce sujet.

Peut-on parler nographie ? de pédopor

Les experts sont partagés sur la question de savoir si ce délit peut être considéré comme de la diffusion de pédopornog­raphie, ce qui entraînera­it une peine plus lourde, et préfèrent jouer la carte de la prudence.

Pour Leandro Núñez, avocat spécialisé dans les nouvelles technologi­es au cabinet Audens, l'essentiel n'est pas de savoir si la photo est 100% réelle, même si elle semble l'être.

"Le plus important est de savoir si le visage est identifiab­le. Il peut s'agir de pédopornog­raphie, de crimes contre l'intégrité morale ou de distributi­on d'images à contenu sexuel non consensuel", explique l'avocat à Euronews.

"Dans le cas d'un crime contre l'intégrité morale, il s'agirait d'un crime moins grave, qui entraînera­it donc une peine moins lourde, de six mois à deux ans de prison", ajoutet-il.

D'autres experts, comme Eloi Font, avocat au cabinet Font Advocats, spécialisé dans le droit numérique, estiment qu'il pourrait s'agir d'un délit similaire à la reproducti­on d'images sexuelles de mineurs.

Dans ce cas, la peine encourue pourrait aller de cinq à neuf ans de prison.

 ?? ?? Les mères de certaines victimes ont dénoncé ce qui s'est passé Canva
Les mères de certaines victimes ont dénoncé ce qui s'est passé Canva

Newspapers in French

Newspapers from France