Desnudos falsos, un nuevo peligro para las adolescentes Los chicos utilizaron apps de “nudificación” que están disponibles
Mediante inteligencia artificial, estudiantes de secundaria fabricaron y compartieron imágenes explícitas de sus compañeras
NUEVA YORK.– A finales de marzo, las escuelas públicas de Westfield celebraron una reunión regular de la junta directiva en la escuela secundaria local con un anuncio en el exterior que daba la bienvenida a los visitantes del “Hogar de los Diablos Azules” y sus equipos deportivos.
Pero para Dorota Mani, esta no era una reunión cualquiera. En octubre, algunas niñas de Westfield High School –incluida Francesca, la hija de 14 años de Mani– alertaron a los directivos de que los niños de su clase habían utilizado un software de inteligencia artificial para generar imágenes sexualmente explícitas de ellas y estaban haciendo circular las imágenes falsas. Cinco meses después, según afirman los Mani y otras familias, el distrito ha hecho muy poco para abordar públicamente las imágenes manipuladas o actualizar las políticas escolares con el fin de impedir la utilización de la IA para fines de explotación.
En un comunicado, el distrito escolar declaró que inició una “investigación inmediata” al enterarse del incidente, también dijo que había notificado y consultado a la policía y que le había brindado asesoramiento grupal a la clase de décimo grado.
“Todos los distritos escolares están lidiando con los desafíos y el impacto de la inteligencia artificial y otras tecnologías que están disponibles para los estudiantes en cualquier momento y lugar”, dijo en el comunicado Raymond González, director de las Escuelas Públicas de Westfield.
Las escuelas de todo Estados Unidos, sorprendidas el año pasado por la repentina popularidad de los chatbots que funcionan con inteligencia artificial, como CHATGPT, se apresuraron a contener los robots generadores de texto en un esfuerzo por evitar que los estudiantes hicieran trampa. Ahora, un fenómeno más alarmante de generación de imágenes mediante el uso de la IA impacta en las escuelas.
Los chicos de varios estados han utilizado aplicaciones de “nudificación” ampliamente disponibles para pervertir fotografías reales e identificables de sus compañeras de clase vestidas, asistiendo a eventos como fiestas de graduación, en imágenes gráficas y convincentes de las estudiantes con senos y genitales generados por IA. En algunos casos, los estudiantes varones compartieron las imágenes falsas en el comedor de la escuela, el micro escolar o en chats grupales.
Este tipo de imágenes alteradas digitalmente –conocidas como “ultrafalsos” o “pornografía ultrafalsa”– pueden tener consecuencias devastadoras. Los expertos en explotación sexual infantil afirman que el uso de imágenes no consensuadas generadas por IA para acosar, humillar e intimidar a mujeres jóvenes puede perjudicar su salud mental, su reputación y su seguridad física, además de plantear riesgos para sus perspectivas universitarias y profesionales. El mes pasado, el FBI advirtió que es ilegal distribuir material de abuso sexual infantil generado por computadora, incluidas imágenes de aspecto realista generadas por IA de menores identificables que participan en conductas sexualmente explícitas.
Sin embargo, el uso por parte de los estudiantes de aplicaciones de IA explotadoras en las escuelas es tan nuevo que algunos distritos parecen menos preparados para abordarlo que otros. Eso puede hacer que las medidas de protección sean precarias para los estudiantes.
En Beverly Vista Middle School, una institución localizada en Beverly Hills, California, los directivos contactaron a la policía en febrero tras enterarse de que cinco estudiantes varones habían creado y compartido imágenes explícitas de compañeras de clase generadas por IA. Dos semanas después, la junta escolar aprobó la expulsión de cinco estudiantes. Michael Bregy, director del Distrito Escolar Unificado de Beverly Hills, afirmó que él y otros líderes escolares querían sentar un precedente nacional de que las escuelas no deben permitir que los alumnos generen y hagan circular imágenes sexualmente explícitas de sus compañeros.
Los detalles de los casos –descritos en las comunicaciones del distrito con los padres, reuniones de la junta escolar, audiencias legislativas y documentos judiciales– ilustran la variabilidad de las respuestas de las escuelas.
“Tenemos que empezar a actualizar nuestra política escolar”, dijo en una entrevista Francesca Mani, que ahora tiene 15 años. “Si la escuela hubiera tenido políticas con respecto a la IA, estudiantes como yo habrían estado protegidas”.
Bregy, el director, afirmó que las escuelas y los legisladores deben actuar rápidamente. “Se oye mucho sobre la seguridad física en las escuelas”, dijo. “Pero de lo que no se oye hablar es de esta invasión a la seguridad emocional y personal de los estudiantes”.