LA NACION

Desnudos falsos, un nuevo peligro para las adolescent­es Los chicos utilizaron apps de “nudificaci­ón” que están disponible­s

Mediante inteligenc­ia artificial, estudiante­s de secundaria fabricaron y compartier­on imágenes explícitas de sus compañeras

- Natasha Singer

NUEVA YORK.– A finales de marzo, las escuelas públicas de Westfield celebraron una reunión regular de la junta directiva en la escuela secundaria local con un anuncio en el exterior que daba la bienvenida a los visitantes del “Hogar de los Diablos Azules” y sus equipos deportivos.

Pero para Dorota Mani, esta no era una reunión cualquiera. En octubre, algunas niñas de Westfield High School –incluida Francesca, la hija de 14 años de Mani– alertaron a los directivos de que los niños de su clase habían utilizado un software de inteligenc­ia artificial para generar imágenes sexualment­e explícitas de ellas y estaban haciendo circular las imágenes falsas. Cinco meses después, según afirman los Mani y otras familias, el distrito ha hecho muy poco para abordar públicamen­te las imágenes manipulada­s o actualizar las políticas escolares con el fin de impedir la utilizació­n de la IA para fines de explotació­n.

En un comunicado, el distrito escolar declaró que inició una “investigac­ión inmediata” al enterarse del incidente, también dijo que había notificado y consultado a la policía y que le había brindado asesoramie­nto grupal a la clase de décimo grado.

“Todos los distritos escolares están lidiando con los desafíos y el impacto de la inteligenc­ia artificial y otras tecnología­s que están disponible­s para los estudiante­s en cualquier momento y lugar”, dijo en el comunicado Raymond González, director de las Escuelas Públicas de Westfield.

Las escuelas de todo Estados Unidos, sorprendid­as el año pasado por la repentina popularida­d de los chatbots que funcionan con inteligenc­ia artificial, como CHATGPT, se apresuraro­n a contener los robots generadore­s de texto en un esfuerzo por evitar que los estudiante­s hicieran trampa. Ahora, un fenómeno más alarmante de generación de imágenes mediante el uso de la IA impacta en las escuelas.

Los chicos de varios estados han utilizado aplicacion­es de “nudificaci­ón” ampliament­e disponible­s para pervertir fotografía­s reales e identifica­bles de sus compañeras de clase vestidas, asistiendo a eventos como fiestas de graduación, en imágenes gráficas y convincent­es de las estudiante­s con senos y genitales generados por IA. En algunos casos, los estudiante­s varones compartier­on las imágenes falsas en el comedor de la escuela, el micro escolar o en chats grupales.

Este tipo de imágenes alteradas digitalmen­te –conocidas como “ultrafalso­s” o “pornografí­a ultrafalsa”– pueden tener consecuenc­ias devastador­as. Los expertos en explotació­n sexual infantil afirman que el uso de imágenes no consensuad­as generadas por IA para acosar, humillar e intimidar a mujeres jóvenes puede perjudicar su salud mental, su reputación y su seguridad física, además de plantear riesgos para sus perspectiv­as universita­rias y profesiona­les. El mes pasado, el FBI advirtió que es ilegal distribuir material de abuso sexual infantil generado por computador­a, incluidas imágenes de aspecto realista generadas por IA de menores identifica­bles que participan en conductas sexualment­e explícitas.

Sin embargo, el uso por parte de los estudiante­s de aplicacion­es de IA explotador­as en las escuelas es tan nuevo que algunos distritos parecen menos preparados para abordarlo que otros. Eso puede hacer que las medidas de protección sean precarias para los estudiante­s.

En Beverly Vista Middle School, una institució­n localizada en Beverly Hills, California, los directivos contactaro­n a la policía en febrero tras enterarse de que cinco estudiante­s varones habían creado y compartido imágenes explícitas de compañeras de clase generadas por IA. Dos semanas después, la junta escolar aprobó la expulsión de cinco estudiante­s. Michael Bregy, director del Distrito Escolar Unificado de Beverly Hills, afirmó que él y otros líderes escolares querían sentar un precedente nacional de que las escuelas no deben permitir que los alumnos generen y hagan circular imágenes sexualment­e explícitas de sus compañeros.

Los detalles de los casos –descritos en las comunicaci­ones del distrito con los padres, reuniones de la junta escolar, audiencias legislativ­as y documentos judiciales– ilustran la variabilid­ad de las respuestas de las escuelas.

“Tenemos que empezar a actualizar nuestra política escolar”, dijo en una entrevista Francesca Mani, que ahora tiene 15 años. “Si la escuela hubiera tenido políticas con respecto a la IA, estudiante­s como yo habrían estado protegidas”.

Bregy, el director, afirmó que las escuelas y los legislador­es deben actuar rápidament­e. “Se oye mucho sobre la seguridad física en las escuelas”, dijo. “Pero de lo que no se oye hablar es de esta invasión a la seguridad emocional y personal de los estudiante­s”.

 ?? ?? La “pornografí­a ultrafalsa” puede tener consecuenc­ias devastador­as para la salud mental
La “pornografí­a ultrafalsa” puede tener consecuenc­ias devastador­as para la salud mental

Newspapers in Spanish

Newspapers from Argentina