CARA Y CRUZ DEL RECONOCIMIENTO FACIAL
El reconocimiento facial está empezando a utilizarse en todo tipo de situaciones, incluidas las investigaciones policiales. Pero numerosos expertos consideran que es una tecnología aún inmadura y que puede llevar al control de los ciudadanos.
En junio de 2020, Robert Williams, residente en Detroit, fue arrestado por la policía local en el jardín de su casa, delante de su mujer y sus dos hijas. Se le acusaba de haber robado cinco relojes en una tienda cercana unos días antes. Una cámara de vigilancia había capturado su rostro y un sistema de reconocimiento facial lo había identificado como el ladrón en pocos segundos a partir de un único fotograma del vídeo. Caso cerrado. Cuando Williams vio las pruebas, no pudo creer la situación en la que se encontraba. Había defendido su inocencia durante la detención (ni siquiera conocía la tienda), y, además, la persona del vídeo no era él. “¿Vas a decirme que el ordenador se ha equivocado?”, le preguntó uno de los agentes. Sí, se había equivocado.
El uso del reconocimiento facial se ha extendido en los últimos años a muchos ámbitos de nuestra vida, impulsado por una mejora espectacular en su calidad. “En abril de 2020, el mejor algoritmo de identificación de rostros tenía una tasa de error de solo el 0,08%, en comparación con el 4,1% del algoritmo líder en 2014”, señala William Crumpler, investigador del Centro de Estudios Estratégicos Internacionales (CSIS, por sus siglas en inglés).
¿QUÉ EXPLICA ESTE AUMENTO DE LA FIABILIDAD? LAS NUEVAS TÉCNICAS DE PROCESADO, LAS CÁMARAS CON MÁS RESOLUCIÓN y un salto exponencial en la efectividad del aprendizaje automático, la rama de la inteligencia artificial que desarrolla técnicas que permiten a los ordenadores aprender. La mezcla de estos avances ha logrado que la identificación de rostros sea razonablemente útil en varios escenarios, y también muy rápida: esto ha propiciado que muchas de las visiones futuristas sobre el reconocimiento facial –esas escenas de película donde los policías resolvían un caso simplemente pasando el vídeo por una base de datos– se estén haciendo realidad.
Los mejores teléfonos y ordenadores saben ya quiénes somos solo con echarnos un rápido vistazo con su cámara frontal; en algunos aeropuertos el proceso de embarcar en el avión se ha simplificado usando cámaras que identifican a los pasajeros: sube una foto a Facebook y la red social te dirá quién sale en ella en pocos segundos. Es casi mágico, y como ocurre muchas veces con la tecnología, lo mágico acaba por convertirse en algo casi trivial.
Cómo no, las fuerzas del orden y los Gobiernos se han lanzado a utilizar este tipo de sistemas para acelerar su trabajo y anticiparse a posibles amenazas. Sin embargo, la rapidez con la que se están aplicando tales métodos y la falta de control sobre el proceso preocupa a los grupos de defensa de los derechos humanos y la privacidad. Para empezar, porque es fácil pensar que si un algoritmo de reconocimiento facial falla en solo un 0,08% de los casos, cualquier sistema creado en torno a él será igual de efectivo. Nada más lejos de la realidad.
En las condiciones ideales, con un algoritmo entrenado con una amplia variedad de fotos y al que se le entrega una imagen bien iluminada y con la persona mirando de frente, un sistema de reconocimiento facial hará un gran trabajo, sin duda. Reconocerá un rostro con relativa facilidad entre todos los almacenados como referencia, y con un alto índice de acierto. Es la experiencia que tenemos, por ejemplo, al usar el bloqueo facial en nuestro teléfono. FaceID, el sistema de reconocimiento del usuario de los iPhone, no solo estudia la imagen de la cámara, también la geometría del rostro, y esto lo hace más efectivo: tanto que a veces distingue a los gemelos, una de las pruebas más difíciles para estos sistemas. Basta una fracción de segundo y listo, ya sabe que somos nosotros.
Lo mismo sucede con algunos ordenadores y móviles de otras marcas. Incluso si no emplean un sistema de detección tan avanzado, el reconocimiento de las caras es rápido y por lo general bastante fiable. La cosa se complica, sin embargo, cuando la persona no mira directamente al objetivo, algo común en los vídeos que graban las cámaras de seguridad, por ejemplo. Tampoco funciona muy bien si la imagen es borrosa o las condiciones de luz no son idóneas.
Aquí es donde entran en juego las técnicas de aprendizaje automático depuradas en los últimos años. Entrenando al algoritmo con cientos de miles de fotografías tomadas desde diferentes ángulos, es posible enseñarle a reconocer lo que es un rostro y cómo varía
En las condiciones ideales (fotos de frente y bien iluminadas), algunos algoritmos de reconocimiento facial tienen una tasa de error del 0,08%
su aspecto en una imagen bidimensional o un fotograma, según la posición de la cabeza. Es un proceso laborioso, pero que se acelera gracias a los potentes procesadores actuales. Una vez que el sistema sabe cómo encontrar e interpretar un rostro en una imagen –aunque no esté mirando de frente–, le basta compararlo con los que conoce. Hay muchas formas de hacerlo, pero por lo general los sistemas de reconocimiento facial tienden a considerar aspectos como la distancia que separa los ojos, la forma de los labios o de la nariz. Son rasgos que, agregados, les permiten asegurarse de que están ante dos fotos distintas de un mismo sujeto.
AL PRINCIPIO, ESTOS SISTEMAS COMETEN UNA ELEVADA TASA DE ERRORES, pero a base de entrenarlos una y otra vez en el proceso de detección se consigue un resultado bastante sólido. Cuando se adiestra bien a un algoritmo, es fácil adaptarlo a diferentes usos. El problema surge si durante el entrenamiento no se utiliza una muestra lo suficientemente variada de rostros. Si todos los ejemplos
que se le proporcionan al algoritmos son, por ejemplo, hombres blancos de mediana edad, el sistema de reconocimiento facial se volverá increíblemente efectivo para identificar a las personas que encajen con ese perfil, pero mucho menos preciso en otros casos.
Como el contraste entre los diferentes rasgos de la cara ayuda también a identificar a una persona, los tonos de piel oscura pueden complicar todavía más el proceso. Esto ha dado como resultado tecnologías de identificación que no están siendo lo suficientemente fiables como para confiar en ellas a la hora de identificar a un sospechoso. Eso es lo que ocurrió en el caso de Robert Williams. El ladrón tenía la piel oscura, como él, y eso contribuyó a generar un falso positivo. El ordenador fue incapaz de distinguir entre dos personas claramente diferentes.
EL AÑO PASADO, LA UNIÓN AMERICANA DE LIBERTADES CIVILES (ACLU), UNA ORGANIZACIÓN SIN ÁNIMO DE LUCRO, hizo un experimento para demostrar lo poco fiables que pueden llegar a ser estos sistemas. Rekognition es una de las plataformas de reconocimiento facial que están probando diferentes cuerpos policiales. Es propiedad de Amazon y se lo considera uno de los motores de imagen más avanzados accesibles para todo tipo de organismos y empresas, que no solo lo usan para reconocer rostros sino también para identificar ciertos elementos en una imagen, como por ejemplo si un trabajador lleva puesto el equipo de seguridad que necesita para su tarea. En cuanto a la identificación facial, es posible que los haya más eficientes en manos de varias agencias de espionaje y Gobiernos, pero no están disponibles para el público general.
ACLU probó el rendimiento de Rekognition con las fotos de los 435 congresistas de Estados Unidos y las bases de datos de personas previamente detenidas que usan varios cuerpos de seguridad de ese país cuando buscan sospechosos. La plataforma de Amazon identificó erróneamente a veintiocho miembros del Congreso como individuos que ya habían sido arrestados en alguna ocasión. La mayoría de los fallos afectaron a los políticos afroamericanos y latinos, de pieles más oscuras.
Un sistema de estas características, con una eficacia no probada, es de por sí peligroso; pero la situación se vuelve más inquietante al considerar la cantidad de imágenes disponibles para aplicar el reconocimiento facial, que podría ser utilizada no solo para encontrar delincuentes, sino también para identificar, por ejemplo, a los asistentes a una manifestación. Así fue durante las protestas del pasado año asociadas al movimiento antirracista Black Lives Matter (las vidas negras importan), organizadas en varias ciudades estadounidenses. Al menos en una de ellas, en Nueva York, la policía usó sistemas de reconocimiento facial para identificar a unos manifestantes que gritaron con un megáfono a un agente.
En enero de 2018, una investigación del New York Times demostró lo extensas que pueden ser las bases de datos que poseen los Gobiernos o las agencias de seguridad para identificar a los ciudadanos. Una pequeña empresa estadounidense, Clearview AI, estaba llamando a las puertas de cientos de departamentos policiales de su país para ofrecerles una tecnología capaz de identifi
Sin una regulación clara de las tecnologías de reconocimiento facial, los estados las usarán para controlar a los ciudadanos
car un rostro contra una base de datos de millones de personas. ¿El origen de estas fotos y datos personales asociados? Más de 3000 millones de imágenes subidas a diferentes redes sociales por personas de todo el mundo, extraídas y procesadas de forma automatizada.
Dada la falta de leyes que aclaren cómo actuar en estos casos, lo único que frena la implantación de tales métodos es el temor a la mala imagen que pueden generar. Microsoft y Amazon han anunciado que, de momento, no permitirán a las fuerzas de seguridad de Estados Unidos usar sus motores de identificación facial, y que esperarán a que los gobernantes legislen sobre cuándo y cómo pueden los agentes valerse de sus herramientas. IBM, que invirtió mucho dinero en este asunto en la segunda mitad de la pasada década, ha decidido ir un paso más allá y parar completamente el desarrollo de su tecnología de reconocimiento. Arvind Krishna, presidente y director ejecutivo de la compañía, justificó así la medida: “La inteligencia artificial es una herramienta poderosa que puede ayudar a las fuerzas del orden a mantener seguros a los ciudadanos, pero los proveedores y usuarios tienen la responsabilidad compartida de probarla para asegurarse de que no tiene sesgos”.
OTRAS EMPRESAS MENOS ESCRUPULOSAS NO TIENEN PROBLEMAS EN SEGUIR OFRECIENDO ESTOS SERVICIOS. A raíz del caso Williams, la policía de Detroit ya no emplea técnicas de reconocimiento facial en vídeos de seguridad, pero sí en fotos. Solo tres estados del país han aprobado leyes para limitar el alcance de esta tecnología. En otros países, como China, el uso de la identificación facial desde cámaras de seguridad es común. Lo mismo ocurre en el Reino Unido: la policía de Londres, por ejemplo, utiliza de forma rutinaria sistemas de reconocimiento facial en las imágenes que capturan las cámaras de videovigilancia en eventos multitudinarios, y las contrasta con una lista de personas buscadas o sospechosas.
Varias organizaciones de derechos humanos advierten que, de no controlarse cuanto antes, este tipo de herramientas de vigilancia automatizada pasarán a convertirse en cotidianas. Una vez asentadas dentro de los procedimientos habituales de las fuerzas de seguridad, resultará muy difícil evitar que se abuse de ellas.
En Europa, los reguladores están desarrollando directrices que regulen de manera estricta los sistemas de reconocimiento facial. La identificación biométrica remota está prohibida por el reglamento general de protección de datos de la Unión Europea, pero existen excepciones que podrían justificar su uso, y hay en marcha varias pruebas piloto de explotación de esta tecnología en aeropuertos de varios estados de la Unión. El pasado mes de noviembre, doce organizaciones no gubernamentales lanzaron una campaña bajo el eslogan “Reclama tu cara”, para pedir a los legisladores europeos que prohíban el reconocimiento facial indiscriminado en labores de vigilancia. Los responsables de la petición opinan que “la combinación de datos biométricos y la vigilancia masiva dan como resultado una realidad en la que se trata injustamente a todos como sospechosos. Viola nuestro derecho a expresarnos libremente, reunirnos, hablar contra las injusticias y vivir sin discriminación”.
Por su parte, la Comisión Europea prevé aprobar este año un conjunto de leyes para regular el uso de las aplicaciones de inteligencia artificial en la Unión. Reconocer los peligros que acompañan al reconocimiento facial podría proteger a los europeos de sufrir abusos como el de Robert Williams.