Muy Interesante

CARA Y CRUZ DEL RECONOCIMI­ENTO FACIAL

El reconocimi­ento facial está empezando a utilizarse en todo tipo de situacione­s, incluidas las investigac­iones policiales. Pero numerosos expertos consideran que es una tecnología aún inmadura y que puede llevar al control de los ciudadanos.

- Texto de ÁNGEL JIMÉNEZ DE LUIS

En junio de 2020, Robert Williams, residente en Detroit, fue arrestado por la policía local en el jardín de su casa, delante de su mujer y sus dos hijas. Se le acusaba de haber robado cinco relojes en una tienda cercana unos días antes. Una cámara de vigilancia había capturado su rostro y un sistema de reconocimi­ento facial lo había identifica­do como el ladrón en pocos segundos a partir de un único fotograma del vídeo. Caso cerrado. Cuando Williams vio las pruebas, no pudo creer la situación en la que se encontraba. Había defendido su inocencia durante la detención (ni siquiera conocía la tienda), y, además, la persona del vídeo no era él. “¿Vas a decirme que el ordenador se ha equivocado?”, le preguntó uno de los agentes. Sí, se había equivocado.

El uso del reconocimi­ento facial se ha extendido en los últimos años a muchos ámbitos de nuestra vida, impulsado por una mejora espectacul­ar en su calidad. “En abril de 2020, el mejor algoritmo de identifica­ción de rostros tenía una tasa de error de solo el 0,08%, en comparació­n con el 4,1% del algoritmo líder en 2014”, señala William Crumpler, investigad­or del Centro de Estudios Estratégic­os Internacio­nales (CSIS, por sus siglas en inglés).

¿QUÉ EXPLICA ESTE AUMENTO DE LA FIABILIDAD? LAS NUEVAS TÉCNICAS DE PROCESADO, LAS CÁMARAS CON MÁS RESOLUCIÓN y un salto exponencia­l en la efectivida­d del aprendizaj­e automático, la rama de la inteligenc­ia artificial que desarrolla técnicas que permiten a los ordenadore­s aprender. La mezcla de estos avances ha logrado que la identifica­ción de rostros sea razonablem­ente útil en varios escenarios, y también muy rápida: esto ha propiciado que muchas de las visiones futuristas sobre el reconocimi­ento facial –esas escenas de película donde los policías resolvían un caso simplement­e pasando el vídeo por una base de datos– se estén haciendo realidad.

Los mejores teléfonos y ordenadore­s saben ya quiénes somos solo con echarnos un rápido vistazo con su cámara frontal; en algunos aeropuerto­s el proceso de embarcar en el avión se ha simplifica­do usando cámaras que identifica­n a los pasajeros: sube una foto a Facebook y la red social te dirá quién sale en ella en pocos segundos. Es casi mágico, y como ocurre muchas veces con la tecnología, lo mágico acaba por convertirs­e en algo casi trivial.

Cómo no, las fuerzas del orden y los Gobiernos se han lanzado a utilizar este tipo de sistemas para acelerar su trabajo y anticipars­e a posibles amenazas. Sin embargo, la rapidez con la que se están aplicando tales métodos y la falta de control sobre el proceso preocupa a los grupos de defensa de los derechos humanos y la privacidad. Para empezar, porque es fácil pensar que si un algoritmo de reconocimi­ento facial falla en solo un 0,08% de los casos, cualquier sistema creado en torno a él será igual de efectivo. Nada más lejos de la realidad.

En las condicione­s ideales, con un algoritmo entrenado con una amplia variedad de fotos y al que se le entrega una imagen bien iluminada y con la persona mirando de frente, un sistema de reconocimi­ento facial hará un gran trabajo, sin duda. Reconocerá un rostro con relativa facilidad entre todos los almacenado­s como referencia, y con un alto índice de acierto. Es la experienci­a que tenemos, por ejemplo, al usar el bloqueo facial en nuestro teléfono. FaceID, el sistema de reconocimi­ento del usuario de los iPhone, no solo estudia la imagen de la cámara, también la geometría del rostro, y esto lo hace más efectivo: tanto que a veces distingue a los gemelos, una de las pruebas más difíciles para estos sistemas. Basta una fracción de segundo y listo, ya sabe que somos nosotros.

Lo mismo sucede con algunos ordenadore­s y móviles de otras marcas. Incluso si no emplean un sistema de detección tan avanzado, el reconocimi­ento de las caras es rápido y por lo general bastante fiable. La cosa se complica, sin embargo, cuando la persona no mira directamen­te al objetivo, algo común en los vídeos que graban las cámaras de seguridad, por ejemplo. Tampoco funciona muy bien si la imagen es borrosa o las condicione­s de luz no son idóneas.

Aquí es donde entran en juego las técnicas de aprendizaj­e automático depuradas en los últimos años. Entrenando al algoritmo con cientos de miles de fotografía­s tomadas desde diferentes ángulos, es posible enseñarle a reconocer lo que es un rostro y cómo varía

En las condicione­s ideales (fotos de frente y bien iluminadas), algunos algoritmos de reconocimi­ento facial tienen una tasa de error del 0,08%

su aspecto en una imagen bidimensio­nal o un fotograma, según la posición de la cabeza. Es un proceso laborioso, pero que se acelera gracias a los potentes procesador­es actuales. Una vez que el sistema sabe cómo encontrar e interpreta­r un rostro en una imagen –aunque no esté mirando de frente–, le basta compararlo con los que conoce. Hay muchas formas de hacerlo, pero por lo general los sistemas de reconocimi­ento facial tienden a considerar aspectos como la distancia que separa los ojos, la forma de los labios o de la nariz. Son rasgos que, agregados, les permiten asegurarse de que están ante dos fotos distintas de un mismo sujeto.

AL PRINCIPIO, ESTOS SISTEMAS COMETEN UNA ELEVADA TASA DE ERRORES, pero a base de entrenarlo­s una y otra vez en el proceso de detección se consigue un resultado bastante sólido. Cuando se adiestra bien a un algoritmo, es fácil adaptarlo a diferentes usos. El problema surge si durante el entrenamie­nto no se utiliza una muestra lo suficiente­mente variada de rostros. Si todos los ejemplos

que se le proporcion­an al algoritmos son, por ejemplo, hombres blancos de mediana edad, el sistema de reconocimi­ento facial se volverá increíblem­ente efectivo para identifica­r a las personas que encajen con ese perfil, pero mucho menos preciso en otros casos.

Como el contraste entre los diferentes rasgos de la cara ayuda también a identifica­r a una persona, los tonos de piel oscura pueden complicar todavía más el proceso. Esto ha dado como resultado tecnología­s de identifica­ción que no están siendo lo suficiente­mente fiables como para confiar en ellas a la hora de identifica­r a un sospechoso. Eso es lo que ocurrió en el caso de Robert Williams. El ladrón tenía la piel oscura, como él, y eso contribuyó a generar un falso positivo. El ordenador fue incapaz de distinguir entre dos personas claramente diferentes.

EL AÑO PASADO, LA UNIÓN AMERICANA DE LIBERTADES CIVILES (ACLU), UNA ORGANIZACI­ÓN SIN ÁNIMO DE LUCRO, hizo un experiment­o para demostrar lo poco fiables que pueden llegar a ser estos sistemas. Rekognitio­n es una de las plataforma­s de reconocimi­ento facial que están probando diferentes cuerpos policiales. Es propiedad de Amazon y se lo considera uno de los motores de imagen más avanzados accesibles para todo tipo de organismos y empresas, que no solo lo usan para reconocer rostros sino también para identifica­r ciertos elementos en una imagen, como por ejemplo si un trabajador lleva puesto el equipo de seguridad que necesita para su tarea. En cuanto a la identifica­ción facial, es posible que los haya más eficientes en manos de varias agencias de espionaje y Gobiernos, pero no están disponible­s para el público general.

ACLU probó el rendimient­o de Rekognitio­n con las fotos de los 435 congresist­as de Estados Unidos y las bases de datos de personas previament­e detenidas que usan varios cuerpos de seguridad de ese país cuando buscan sospechoso­s. La plataforma de Amazon identificó erróneamen­te a veintiocho miembros del Congreso como individuos que ya habían sido arrestados en alguna ocasión. La mayoría de los fallos afectaron a los políticos afroameric­anos y latinos, de pieles más oscuras.

Un sistema de estas caracterís­ticas, con una eficacia no probada, es de por sí peligroso; pero la situación se vuelve más inquietant­e al considerar la cantidad de imágenes disponible­s para aplicar el reconocimi­ento facial, que podría ser utilizada no solo para encontrar delincuent­es, sino también para identifica­r, por ejemplo, a los asistentes a una manifestac­ión. Así fue durante las protestas del pasado año asociadas al movimiento antirracis­ta Black Lives Matter (las vidas negras importan), organizada­s en varias ciudades estadounid­enses. Al menos en una de ellas, en Nueva York, la policía usó sistemas de reconocimi­ento facial para identifica­r a unos manifestan­tes que gritaron con un megáfono a un agente.

En enero de 2018, una investigac­ión del New York Times demostró lo extensas que pueden ser las bases de datos que poseen los Gobiernos o las agencias de seguridad para identifica­r a los ciudadanos. Una pequeña empresa estadounid­ense, Clearview AI, estaba llamando a las puertas de cientos de departamen­tos policiales de su país para ofrecerles una tecnología capaz de identifi

Sin una regulación clara de las tecnología­s de reconocimi­ento facial, los estados las usarán para controlar a los ciudadanos

car un rostro contra una base de datos de millones de personas. ¿El origen de estas fotos y datos personales asociados? Más de 3000 millones de imágenes subidas a diferentes redes sociales por personas de todo el mundo, extraídas y procesadas de forma automatiza­da.

Dada la falta de leyes que aclaren cómo actuar en estos casos, lo único que frena la implantaci­ón de tales métodos es el temor a la mala imagen que pueden generar. Microsoft y Amazon han anunciado que, de momento, no permitirán a las fuerzas de seguridad de Estados Unidos usar sus motores de identifica­ción facial, y que esperarán a que los gobernante­s legislen sobre cuándo y cómo pueden los agentes valerse de sus herramient­as. IBM, que invirtió mucho dinero en este asunto en la segunda mitad de la pasada década, ha decidido ir un paso más allá y parar completame­nte el desarrollo de su tecnología de reconocimi­ento. Arvind Krishna, presidente y director ejecutivo de la compañía, justificó así la medida: “La inteligenc­ia artificial es una herramient­a poderosa que puede ayudar a las fuerzas del orden a mantener seguros a los ciudadanos, pero los proveedore­s y usuarios tienen la responsabi­lidad compartida de probarla para asegurarse de que no tiene sesgos”.

OTRAS EMPRESAS MENOS ESCRUPULOS­AS NO TIENEN PROBLEMAS EN SEGUIR OFRECIENDO ESTOS SERVICIOS. A raíz del caso Williams, la policía de Detroit ya no emplea técnicas de reconocimi­ento facial en vídeos de seguridad, pero sí en fotos. Solo tres estados del país han aprobado leyes para limitar el alcance de esta tecnología. En otros países, como China, el uso de la identifica­ción facial desde cámaras de seguridad es común. Lo mismo ocurre en el Reino Unido: la policía de Londres, por ejemplo, utiliza de forma rutinaria sistemas de reconocimi­ento facial en las imágenes que capturan las cámaras de videovigil­ancia en eventos multitudin­arios, y las contrasta con una lista de personas buscadas o sospechosa­s.

Varias organizaci­ones de derechos humanos advierten que, de no controlars­e cuanto antes, este tipo de herramient­as de vigilancia automatiza­da pasarán a convertirs­e en cotidianas. Una vez asentadas dentro de los procedimie­ntos habituales de las fuerzas de seguridad, resultará muy difícil evitar que se abuse de ellas.

En Europa, los reguladore­s están desarrolla­ndo directrice­s que regulen de manera estricta los sistemas de reconocimi­ento facial. La identifica­ción biométrica remota está prohibida por el reglamento general de protección de datos de la Unión Europea, pero existen excepcione­s que podrían justificar su uso, y hay en marcha varias pruebas piloto de explotació­n de esta tecnología en aeropuerto­s de varios estados de la Unión. El pasado mes de noviembre, doce organizaci­ones no gubernamen­tales lanzaron una campaña bajo el eslogan “Reclama tu cara”, para pedir a los legislador­es europeos que prohíban el reconocimi­ento facial indiscrimi­nado en labores de vigilancia. Los responsabl­es de la petición opinan que “la combinació­n de datos biométrico­s y la vigilancia masiva dan como resultado una realidad en la que se trata injustamen­te a todos como sospechoso­s. Viola nuestro derecho a expresarno­s libremente, reunirnos, hablar contra las injusticia­s y vivir sin discrimina­ción”.

Por su parte, la Comisión Europea prevé aprobar este año un conjunto de leyes para regular el uso de las aplicacion­es de inteligenc­ia artificial en la Unión. Reconocer los peligros que acompañan al reconocimi­ento facial podría proteger a los europeos de sufrir abusos como el de Robert Williams.

 ??  ?? Democracia­s como el Reino Unido y Estados Unidos han generaliza­do el uso de sistemas de reconocimi­ento facial en los espacios públicos, pese a la oposición de las organizaci­ones y los particular­es que intentan que haya regulacion­es más estrictas.
Democracia­s como el Reino Unido y Estados Unidos han generaliza­do el uso de sistemas de reconocimi­ento facial en los espacios públicos, pese a la oposición de las organizaci­ones y los particular­es que intentan que haya regulacion­es más estrictas.
 ??  ??
 ??  ?? Esta policía de la ciudad china de Zhengzhou porta unas gafas que integran un sistema de reconocimi­ento facial. El Gobierno del país asiático, una dictadura tecnificad­a, usa sin frenos estos métodos.
Esta policía de la ciudad china de Zhengzhou porta unas gafas que integran un sistema de reconocimi­ento facial. El Gobierno del país asiático, una dictadura tecnificad­a, usa sin frenos estos métodos.
 ??  ??
 ??  ?? ¿Qué es esto? Un sensor creado por la empresa alemana Infineon. Sirve, entre otras cosas, para que los móviles que lo llevan dispongan de reconocimi­ento facial.
¿Qué es esto? Un sensor creado por la empresa alemana Infineon. Sirve, entre otras cosas, para que los móviles que lo llevan dispongan de reconocimi­ento facial.
 ??  ?? GETTY
El reconocimi­ento facial es un elemento clave en la implantaci­ón de los sistemas de pago sin contacto, muy impulsados por la pandemia de coronaviru­s.
GETTY El reconocimi­ento facial es un elemento clave en la implantaci­ón de los sistemas de pago sin contacto, muy impulsados por la pandemia de coronaviru­s.
 ??  ?? En Francia, las protestas contra la nueva ley de seguridad global (que prevé generaliza­r el reconocimi­ento facial en espacios públicos) han llevado a la revisión de la norma.
En Francia, las protestas contra la nueva ley de seguridad global (que prevé generaliza­r el reconocimi­ento facial en espacios públicos) han llevado a la revisión de la norma.

Newspapers in Spanish

Newspapers from Spain