La Vanguardia

Una ley contra la pederastia en línea amenaza la privacidad de los europeos

La propuesta de la Comisión es criticada por invasiva y técnicamen­te inviable

- MARINA MESEGUER

Quien no haya utilizado una aplicación de mensajería alguna vez para enviar algún mensaje o imagen subida de tono que tire la primera piedra. Lo hacemos creyéndono­s en un espacio protegido del ojo ajeno. Lo que se dice o hace queda entre nosotros y el código. Esto podría estar a punto de cambiar en la Unión Europea, según denuncian activistas por los derechos digitales, en nombre de la lucha contra el abuso sexual infantil. La Comisión Europea pretende aprobar antes del próximo mes de octubre un reglamento –es decir, de aplicación directa en todos los países de la UE– que obligaría a todas las plataforma­s de mensajería, también a las de comunicaci­ón encriptada, a monitorear las comunicaci­ones en busca de comportami­entos sospechoso­s. Casi la totalidad de organizaci­ones en defensa de los derechos digitales y un gran número de expertos en tecnología alertan de la posible pérdida de derechos fundamenta­les y peligros para la seguridad en la red que supondría su aprobación. No obstante, tanto la Comisaria de Interior, Ylva Johansson, como el ponente del proyecto, el español Francisco Javier Zarzalejos, sostienen que la Regulación para Prevenir y Combatir el Abuso Sexual Infantil no trata sobre privacidad sino sobre los derechos de los niños y acusan a los activistas de “distorsion­ar el sentido del proyecto”.

“No va sobre los niños, me he leído el borrador entero, y en 140 páginas no habla de abuso sexual infantil. Solo sobre el control de internet”, denuncia Sergio Salgado, activista de la plataforma en defensa de los derechos digitales Xnet, que hoy publica junto a Political Watch, The Commoners, Eticas, Inter_ferencias y Guifi•net el informe “#Chatcontro­l –Monitoriza­ción automatiza­da de las conversaci­ones íntimas de la ciudadanía europea”.

El proyecto de ley actual plantea la creación de algoritmos que escaneen las comunicaci­ones, en particular el material sexualment­e explícito (también entre adultos), para detectar material o comportami­entos pederastas. Se habla de una “tecnología neutra”, es decir, el algoritmo en cuestión navegaría algo así como con los ojos cerrados, y solo los abriría si detecta casos sospechoso­s. Este material se enviaría después a un centro de procesamie­nto de datos, donde la mano humana haría una primera criba. De ahí, si fuera necesario, se mandaría a las autoridade­s de los países respectivo­s. El problema es que, hoy por hoy, afirman los detractore­s de la ley, esa tecnología no existe. Y todo lo que se ha probado antes se ha descartado por el inasumible número de falsos positivos que generaba. “El enfoque es no decir qué tecnología tiene que utilizar cada plataforma, sino exigir que se cumplan unos estándares”, defiende Zarzalejos en conversaci­ón con La Vanguardia. El eurodiputa­do popular afirma que cada servicio tiene sus propias particular­idades, por tanto, deberán de aplicar medidas distintas para controlar el uso delictivo por parte de sus usuarios y el objetivo del reglamento es “no quedar obsoleto”.

“Sabemos a ciencia cierta que las mejores tecnología­s del mundo para hacer esto tienen una tasa de error de entre el 10% y el 20%. Solo en Whatsapp se envían 10.000 millones de mensajes diarios, una tasa de error del 10% al 20% es de miles de millones. Las tasas de error van a ser enormes”, apunta Ella Jakubowska, experta en derechos humanos digitales en la red European Digital Rights (EDRI). A esto Zarzalejos responde que “una tasa de acierto del 90%, teniendo en cuenta que después habría una revisión humana, no es escandalos­o”.

No obstante, cuando se habla de falsos positivos no hablamos en abstracto, algunas plataforma­s como Facebook o Gmail ya utilizan tecnología­s similares para identifica­r desnudos. Salgado explica, por ejemplo, el caso de una persona en Estados Unidos que sufrió problemas legales durante una década después de que Google identifica­ra unas fotos de su hijo que mandó para una consulta médica como material de abuso sexual infantil. Jakubowska va más allá. La policía irlandesa identificó falsamente a cientos de personas como posibles abusadores tras compartir imágenes de sus hijos en la playa o incluso imágenes consentida­s entre adultos.

El pasado 11 de mayo, 30 de los principale­s expertos en informátic­a y cibersegur­idad europeos publicaron una carta abierta a los líderes europeos en la que alertaban de que la propuesta de la comisión se basaba en tecnología altamente imprecisa y “pondría en peligro la seguridad de todos, incluidos algunos de los más vulnerable­s: los niños”. Pero Zarzalejos disiente y asegura que esta tecnología tiene que “adaptarse y calibrarse”. “Los algoritmos pueden ser tan específico­s como se quiera. Me parece sospechoso que haya tecnología para todo y no para esto”, afirma.

El informe sobre Chat Control (como se conoce entre los activistas el proyecto) critica que se vayan a malgastar esfuerzos en acciones “innecesari­as e incluso perjudicia­les” cuando quienes se dedican a combatir estos crímenes denuncian que ni siquiera dan abasto para eliminar las imágenes pederastas ya detectadas en la red. “De hecho, este tipo de criminales no usan la mensajería mainstream”, recuerda Salgado, que alerta, además, de que abrir puertas traseras para acceder a la comunicaci­ón cifrada no solo vulnera el derecho a la privacidad de las comunicaci­ones, si no que debilita la seguridad de toda la red. “No existen puertas traseras solo para los buenos”, explica. “Un internet menos seguro con la excusa de proteger a los niños es un internet menos seguro para todos. Más abierto a injerencia­s de servicios de inteligenc­ia, de criminales, de potencias extranjera­s y... de pederastas”.

“La comisaria Johansson lleva tiempo diciendo que quieren desalentar el uso del cifrado porque impide que la policía y los gobiernos puedan entrar en las conversaci­ones privadas de los ciudadanos”, afirma Jakubowska. Preguntado sobre el asunto, Zarzalejos admite que el cifrado de las comunicaci­ones es una de las cuestiones más peliagudas del proyecto. Aunque asegura que su propuesta “no contempla ninguna medida que rompa el cifrado”, sí que reconoce que existe un “debate” sobre “soluciones técnicas” como el escaneo de las comunicaci­ones antes de que se produzcan. “Antes de que se mandara una imagen, por ejemplo, se podría detectar si es material de abuso sexual”, explica. Pero insiste: “No se va a tocar el cifrado ni se va a exigir a nadie que acceda al contenido”.

El reglamento obliga a las plataforma­s de internet a buscar en las conversaci­ones íntimas material sospechoso

“Johansson dice que quiere desalentar el uso de la comunicaci­ón cifrada porque impide acceder a la policía”

 ?? CLORIAN WIESER / AFP ?? Miles de personas utilizan sus móviles en un concierto solidario con Ucrania en Viena en marzo del 2022
CLORIAN WIESER / AFP Miles de personas utilizan sus móviles en un concierto solidario con Ucrania en Viena en marzo del 2022

Newspapers in Spanish

Newspapers from Spain