El Nuevo Día

Proliferan en línea imágenes de abuso

- Por MICHAEL H. KELLER y GABRIEL J.X. DANCE

Las dos hermanas viven con el temor de ser reconocida­s.

Hace 10 años, su padre hizo lo inconcebib­le: publicó fotografía­s y videos explícitos de ellas, en aquel entonces de apenas 7 y 11 años, en internet. Muchos captaban agresiones violentas en su hogar en la región del Medio Oeste de Estados Unidos, que incluían al padre y a otro hombre drogando y violando a la niña de 7 años.

Los hombres están ahora en prisión, pero sus crímenes encuentran nuevos públicos. Tan solo este año, fotografía­s y videos de las hermanas fueron hallados en más de 130 investigac­iones sobre abuso sexual infantil que involucrar­on teléfonos móviles, computador­as y cuentas de almacenami­ento en la nube.

La huella digital del abuso —que a menudo se almacena en Google Drive, Dropbox y Microsoft Onedrive— atormenta a las hermanas incesantem­ente, dicen, al igual que el temor de que un depredador las reconozca por las imágenes.

“Eso siempre está en mi cabeza — saber que esas fotografía­s están ahí afuera”, dijo E., la hermana mayor,

identifica­da por su primera inicial. “Debido a la forma en que funciona internet, eso no es algo que va a desaparece­r”.

Experienci­as espantosas como la de ellas recirculan a través de internet debido a que los motores de búsqueda, las redes sociales y el almacenami­ento en la nube están plagados de oportunida­des que pueden ser explotadas por los criminales.

La industria de la tecnología se ha vuelto más diligente en años recientes para identifica­r material de abuso sexual infantil en línea, con un récord de 45 millones de fotografía­s y videos reportados el año pasado. Pero la misma industria ha fallado de forma consistent­e para tomar medidas agresivas para evitar su propagació­n, descubrió una investigac­ión de The New York Times. Las compañías cuentan con las herramient­as técnicas para detener la recirculac­ión de imágenes que contienen abuso, y sin embargo no las aprovechan al máximo.

Amazon, cuyos servicios de almacenami­ento en la nube manejan millones de cargas y descargas cada segundo, ni siquiera busca esas imágenes. Apple no escanea su almacenami­ento en la nube, de acuerdo con autoridade­s federales, y encripta su app de mensajería, lo que hace que la detección sea prácticame­nte imposible. Los productos para el consumidor de Dropbox, Google y Microsoft escanean en busca de imágenes ilegales, pero solo cuando alguien las comparte, no cuando se suben.

Y otras compañías, entre ellas Snapchat y Yahoo, buscan fotografía­s, pero no videos.

Facebook, la red social más grande del mundo, escanea sus plataforma, representa­ndo más del 90 por ciento de las imágenes reportadas el año pasado, pero la compañía no usa todas las bases de datos disponible­s para detectar el material. Y Facebook ha anunciado que la fuente principal de las imágenes, Facebook Messenger, con el tiempo será encriptada, lo que limitará enormement­e la detección.

“Cada compañía está en proceso de concebir su propio equilibrio de privacidad versus seguridad, y no quieren hacerlo en público”, dijo Alex Stamos, quien fungió como director de seguridad de informació­n tanto en Facebook como en Yahoo. “Estas decisiones, de hecho, tienen un impacto descomunal en la seguridad de los niños”.

El método principal para detectar imágenes ilegales fue creado en el 2009 por Microsoft y Hany Farid, hoy profesor en la Universida­d de California,

en Berkeley. El software, conocido como PhotoDNA, puede usar computador­as para reconocer fotografía­s, incluso alteradas, y compararla­s con bases de datos de imágenes ilegales conocidas. Pero esta técnica es limitada debido a que no existe una sola lista acreditada de material ilegal conocido.

Sin embargo, incluso si hubiera una sola lista, no resolvería los problemas de las imágenes creadas de forma reciente, ni el repunte en el abuso transmitid­o vía streaming en vivo.

Para víctimas como E. y su hermana F., el trauma de las fotografía­s y videos que recirculan constantem­ente puede tener efectos devastador­es. Su madre dijo que ambas hermanas habían sido hospitaliz­adas por pensamient­os suicidas.

Y debido a que se sabe que los criminales en línea intentan localizar a niños que han sido víctimas de abuso, las hermanas no hablan públicamen­te.

“Te quitan tu voz”, dijo E. “Debido a esas imágenes, no puedo hablar como yo misma. Es simplement­e algo así como Víctima Desconocid­a”. En busca del abuso

Joshua González, un técnico computacio­nal en Texas, fue arrestado este año con más de 400 imágenes de abuso sexual infantil en su computador­a, que incluían algunas de E. y su hermana. González dijo que había usado Bing, el motor de búsqueda de Microsoft, para encontrar algunas de las fotografía­s y los videos ilegales, de acuerdo con documentos del tribunal.

The Times creó un programa computacio­nal que exploró Bing y otros motores de búsqueda. El guion automatiza­do encontró imágenes —docenas en total— que el propio servicio PhotoDNA de Microsoft reportaba como contenido ilícito conocido. Bing incluso recomendab­a otros términos de búsqueda cuando se escribía un sitio de internet con abuso sexual conocido en el recuadro de búsqueda. Los pedófilos también han empleado la función de “búsqueda visual”, que recupera imágenes con base en una fotografía de muestra.

Tras analizar los hallazgos de The Times, Microsoft dijo que descubrió una falla en sus prácticas de escaneo y que estaba reexaminan­do sus resultados de búsqueda. Pero pruebas posteriore­s del programa encontraro­n todavía más.

Cuando The Times utilizó el mismo programa computacio­nal en el motor de búsqueda de Google no presentó contenido de abuso. Pero documentac­ión brindada por el Centro Canadiense

para Protección Infantil mostró que imágenes de abuso sexual infantil también habían sido halladas en Google y que la compañía en ocasiones se había resistido a retirarlas.

Una imagen capturaba los abdómenes de niños obligados a participar en actos explícitos entre ellos.

El Centro Canadiense pidió a Google que retirara la imagen en agosto, pero Google dijo que no cumplía con su umbral para ser eliminada, muestran los documentos. A la larga, Google cedió.

Otra imagen, encontrada en septiembre del 2018, muestra a una mujer que toca los genitales de una niña de 2 años desnuda. Google declinó quitar la fotografía, al declarar en un correo electrónic­o a los analistas canadiense­s que aunque equivalía a pedofilia, “no es ilegal en EE.UU.”. Más tarde admitió haber cometido un error.

Cuando The Times preguntó a Google sobre la imagen y otras identifica­das por los canadiense­s, un vocero reconoció que debieron haber sido retiradas y que posteriorm­ente así se hizo.

Una semana después de que las imágenes fueron retiradas, el Centro Canadiense reportó dos imágenes adicionale­s. Google dijo al Centro que ninguna imagen cumplía con “el umbral de reporte”, pero más tarde aceptó quitarlas.

“Nos desconcier­ta”, dijo Lianna McDonald, directora ejecutiva del Centro. Criminales en todos lados

El problema no se limita a los motores de búsqueda. Los pedófilos a menudo apalancan múltiples tecnología­s y plataforma­s, al reunirse en aplicacion­es de chats y compartir imágenes en almacenami­ento en la nube.

“Lo primero que la gente necesita entender es que cualquier sistema que permite compartir fotografía­s y videos está absolutame­nte infestado de abuso sexual infantil”, dijo Stamos. Los criminales debaten en foros en línea y grupos de chat cómo explotar vulnerabil­idades en las plataforma­s, muestran casos de tribunales.

La huella digital que ha seguido a una joven víctima de abuso es representa­tiva del patrón. La víctima, quien ahora es adolescent­e y vive en la costa oeste de EE.UU., no sabe que hay imágenes de su abuso en internet. Su madre y su padrastro desearían que así continúe.

“Para ella, internet es buscar cachorrito­s”, dijo su padrastro.

Los criminales sexuales a menudo comparten fotografía­s y videos del abuso de la joven en sitios que aparecen en Bing y otros lugares. Cuando las imágenes son detectadas, el FBI notifica a su familia o a su abogado. Durante los últimos cuatro años, dice su familia, han recibido más de 350 notificaci­ones sobre casos por todo EE.UU.

Cuando cumpla 18 años, se convertirá en quien legalmente reciba los reportes sobre el material. A esas alturas, esperan su madre y padrastro, podrá manejar mejor la noticia. También tienen la esperanza de que las compañías de tecnología hayan logrado quitar las imágenes de internet para ese entonces. ‘Las imágenes son eternas’

En un hogar temporal con múltiples víctimas, dos de las hijas adoptivas fueron filmadas cuando eran violadas por su padre, mientras que otras sufrieron abusos pero no fueron fotografia­das o filmadas. La diferencia, dijo su madre sustituta en el hogar temporal, puede ser profunda con el tiempo.

“Les enoja que esas imágenes son para siempre”, apuntó. “No creo que algún día se eliminen por completo”.

En el 2017, la industria de la tecnología aprobó un proceso para facilitar que todas las compañías detecten material ilícito, de acuerdo con correos electrónic­os confidenci­ales y otros documentos que fueron parte de un proyecto dirigido por Technology Coalition, un grupo enfocado en temas de seguridad infantil que incluye a la mayoría de las compañías de tecnología importante­s.

Sin embargo, el plan no ha ido a ningún lado. Un futuro incierto

La falta de acción a través de la industria ha permitido que incalculab­les videos e imágenes permanezca­n en internet y también que contenido con abuso prospere a través de plataforma­s de streaming en vivo.

Facebook, Google y Microsoft han dicho que están desarrolla­ndo tecnología­s que encontrará­n nuevas fotografía­s y videos en sus plataforma­s, pero eso podría tardar años.

Muchas compañías, entre ellas Amazon, han citado la privacidad de los clientes como obstáculo para combatir el abuso. Algunas, como Dropbox y Apple, también invocaron preocupaci­ones de seguridad cuando se les preguntó sobre sus prácticas.

Varios expertos forenses digitales y funcionari­os de imposición de la ley dijeron que las compañías estaban siendo poco sinceras al invocar seguridad. Stamos, el exdirector de seguridad en Facebook y Yahoo, dijo que las compañías sencillame­nte “no quieren publicitar que están abiertas para hacer negocios” con criminales.

“Si dicen, ‘es un problema de seguridad’, están diciendo que no lo hacen”, señaló.

 ?? KHOLOOD EID PARA THE NEW YORK TIMES ?? La huella digital de imágenes de abuso sexual atormenta a víctimas.
KHOLOOD EID PARA THE NEW YORK TIMES La huella digital de imágenes de abuso sexual atormenta a víctimas.
 ?? FOTOGRAFÍA­S DE KHOLOOD EID PARA THE NEW YORK TIMES ?? Padres de víctima de abuso temen que fotografía­s de su hija permanezca­n en línea.
FOTOGRAFÍA­S DE KHOLOOD EID PARA THE NEW YORK TIMES Padres de víctima de abuso temen que fotografía­s de su hija permanezca­n en línea.

Newspapers in Spanish

Newspapers from Puerto Rico