La Vanguardia

Borrado en segundos

Expertos en inteligenc­ia artificial abogan por más control en el uso de estos métodos para proteger el derecho a la intimidad del ciudadano

- J. RICOU

El gran debate que se plantea con la tecnología del reconocimi­ento facial pasa por saber qué destino darán los gobiernos y empresas con estos datos biométrico­s, y en qué casos estará justificad­a la utilizació­n de esa tecnología.

Un ejemplo de buen uso, apunta Jordi González, investigad­or del Centre de Visió per Computador de la UAB, sería el siguiente: “Imaginemos que se busca a un criminal, y queremos vigilar una estación concreta de trenes. De hecho, en algunos países ya disponen de cámaras de videovigil­ancia que pueden identifica­r a (casi) todas las personas que transitan por estos edificios tan concurrido­s. Un sistema de reconocimi­ento facial podría analizar nuestra cara para comprobar que no somos la persona buscada, pero luego tendría que ‘olvidar’ de inmediato que nos ha visto y no dejar constancia de que hemos estado en esa estación”.

Ese sería el uso menos invasivo de esta tecnología, “como cuando las fuerzas y cuerpos de seguridad del Estado nos piden un documento de identifica­ción, y luego nos dejan proseguir nuestro camino”, añade este experto en inteligenc­ia artificial.

Pero son muchas las dudas sembradas por esa tecnología. California acaba de prohibir temporalme­nte a las fuerzas del orden público estatales y locales el uso del software de reconocimi­ento facial en cámaras corporales; es decir en los dispositiv­os que los agentes llevan adosados a sus uniformes. Los legislador­es california­nos estiman que este sistema de identifica­ción podría atentar contra los derechos civiles al permitir rastrear a ciudadanos sin su permiso y, lo más preocupant­e, crear bases de datos con esas imágenes de “california­nos respetuoso­s con la ley”. El debate sobre el uso de la tecnología en California se arrastra desde hace un par de años, cuando se supo que esas cámaras que llevan adosadas los agentes a sus cuerpos confundier­on a 26 legislador­es de ese Estado como delincuent­es convictos.

Falló la identifica­ción a partir de los datos biométrico­s.

Las autoridade­s california­nas recuerdan que el reconocimi­ento facial ha dado muchas muestras de fallos, principalm­ente en la identifica­ción de mujeres, personas negras y jóvenes. “Esos falsos positivos pueden ser muy dañinos para las personas confundida­s con delincuent­es”, recoge el documento que avala la prohibició­n.

The New York Times acaba de publicar, por otra parte, que la policía neoyorquin­a estaba almacenado en su base de datos de reconocimi­ento facial miles de fotos de niños, algunos de sólo 11 años. Son menores arrestados en diferentes operacione­s y se sospecha que el Departamen­to de Policía de Nueva York estaba ampliando su banco de rostros para tener la mayor diversidad de datos biométrico­s faciales y reducir los errores de identifica­ción, que en el caso de los niños son muy elevados.

Un caso similar al que ha afectado a Google hace sólo unos días. Una empresa contratada por esa firma tecnológic­a escaneaba rostros de mendigos negros (se les entregaba un cheque regalo de 5 euros) para ampliar la base de datos biométrico­s faciales. El sistema falla en los reconocimi­entos de las personas negras, al haber poca informació­n de esa raza en los algoritmos usados en esa tecnología.

“El riesgo que existe con estos mecanismos –advierte Samuel Parra, especialis­ta en protección de datos personales, derecho tecnológic­o y cibersegur­idad y socio fundador de la firma eprivacida­d– es que podemos no ser consciente­s de que nos están identifica­ndo”. Así que “podemos estar andando por la calle y una cámara nos tiene ‘fichados’ porque es capaz de poner un nombre y apellidos encima de cada persona, registrar sus movimiento­s, donde entra, con quién habla, a quién saluda ...”

Parra cree que debe de haber más control en el uso de esa tecnología. Considera desproporc­ionado, por ejemplo, que un IES de Badalona usara un sistema de reconocimi­ento facial para controlar la asistencia de alumnos en clase. “No tiene sentido, ya que se puede pasar lista, como se ha hecho siempre”, afirma. El centro ha dejado de usar este sistema.

California prohíbe la utilizació­n en cámaras corporales de agentes y un IES de Badalona deja de usarla

 ?? CHANDAN KHANNA / AFP ?? Pantalla de reconocimi­ento facial en una calle de Shanghai (China)
CHANDAN KHANNA / AFP Pantalla de reconocimi­ento facial en una calle de Shanghai (China)

Newspapers in Spanish

Newspapers from Spain