Cada vez hay más videos de abuso sexual infantil en línea
Facebook es donde se concentra más material, sobre todo en su aplicación Messenger
“Los datos dispares reportados muestran que claramente no podemos depender de que las compañías tecnológicas se autorregulen”
Alex Stamos, ex director de seguridad de Facebook
Nueva York— El número reportado de fotografías, videos y otros materiales relacionados con el abuso sexual infantil en línea creció en más de un 50 por ciento el año pasado, un indicador de que muchas de las plataformas tecnológicas más grandes del mundo continúan infestadas de contenido ilegal.
Casi setenta millones de imágenes y videos fueron reportados al Centro Nacional para Menores Desaparecidos y Explotados, un centro de información para las imágenes de abuso infantil designado de manera federal que trabaja con las agencias de seguridad pública.
La cifra récord fue impulsada por un alza en los videos ilegales, que siempre han sido populares entre los depredadores sexuales pero ahora son detectados con mayor facilidad por algunas compañías. Más de 41 millones de videos fueron reportados; hace cinco años el número era inferior a los 350 mil. Las compañías marcaron muchas de las mismas imágenes y videos en múltiples ocasiones a medida que fueron compartidos entre usuarios.
El centro compartió con The New York Times la identidad de las compañías que detectaron las imágenes; sería la primera vez que se difunde información detallada de las empresas.
Facebook reportó casi sesenta millones de fotografías y videos, más del 85 por ciento del total. El número refleja tanto su inmensa base de usuarios como su enfoque agresivo para eliminar el material, pero muestra que los delincuentes continúan explotando esa plataforma. Casi la mitad del contenido no necesariamente era ilegal, de acuerdo con la compañía, y fue reportado para ayudar a las instituciones de seguridad pública con las investigaciones. Instagram, propiedad de Facebook, fue responsable por 1.7 millones adicionales de fotografías y videos.
En un comunicado, Antigone Davis, la responsable de seguridad global de Facebook, dijo: “El tamaño y la experiencia de nuestro equipo, junto con nuestra tecnología sofisticada, nos han convertido en líderes de la industria en detectar, eliminar y reportar estas imágenes, así como en frustrar los intentos de compartirlas”.
“Continuaremos desarrollando las mejores soluciones para mantener seguros a más niños”, agregó.
Snapchat, Twitter y otras compañías de redes sociales también entregaron informes sobre imágenes. También lo hicieron empresas cuyos servicios incluyen motores de búsqueda y almacenamiento en la nube, incluyendo a Google y Microsoft. Apple, Dropbox y la plataforma de chat Discord también detectaron el contenido ilegal.
En total, 164 compañías entregaron reportes.
“Estos números demuestran que cualquier proveedor de servicios que permite a los individuos almacenar imágenes y videos es susceptible a que se publique material de explotación sexual infantil”, dijo John Shehan, un vicepresidente en el centro nacional.
Confirmó que los números divulgados el 7 de febrero reflejaron todo el contenido reportado al centro, incluyendo material que “podría no cumplir con la definición legal de pornografía infantil”.
Sin embargo, los números no representan una mirada completa al problema: la industria ha estado plagada de prácticas de detección disparejas e inconsistentes, tal como informó el Times el año pasado. Algunos servicios de almacenamiento en la nube, incluidos aquellos que son propiedad de Amazon y Microsoft, no escanean nada en busca de contenido ilegal, mientras que otras compañías, como Snap, escanean en busca de fotografías pero no de videos.