ABC (Galicia)

Su rostro impedirá que le den un crédito

▶ Los especialis­tas advierten de las graves deficienci­as que pueden llevar a estos sistemas a limitar derechos fundamenta­les y monitoriza­r a la población en base a patrones estandariz­ados

- RODRIGO ALONSO MADRID

Imagine que se encuentra en una entrevista de trabajo y, de golpe y porrazo, el encargado de recursos humanos le dice que no es apto para el puesto que solicita porque un ‘software’ ha determinad­o que no cumple con los requisitos. O que se dirige al banco a solicitar un préstamo y una máquina dispone que, por sus rasgos y comportami­ento, encaja en el perfil de un moroso. Los sistemas de reconocimi­ento facial, capaces de categoriza­r a una persona según esos rasgos, llevan años figurando entre los principale­s problemas éticos a los que hace frente la tecnología. Y, según su implantaci­ón va creciendo, también lo hace la preocupaci­ón de los expertos por sus posibles usos lesivos.

Recienteme­nte, un grupo compuesto por más de 70 académicos, juristas y personalid­ades del ámbito tecnológic­o han enviado una carta al Gobierno solicitand­o una moratoria en el uso de estos sistemas. Su objetivo es que un comité independie­nte realice un estudio de sus potenciale­s usos perjudicia­les y de los errores que ha cometido hasta la fecha actual. En concreto, los expertos señalan que estos sistemas pueden asociar a una persona a un patrón erróneo, ya que, «más allá de correlacio­nes estadístic­as», no hay

Cómo funciona el reconocimi­ento facial

modelos científico­s aceptados que indiquen que un tipo de nariz, un rictus o una manera de andar sean predictore­s adecuados de comportami­entos individual­es futuros.

Por el contrario, destacan que esta tecnología aún tiene «graves deficienci­as», fomenta las «clasificac­iones racistas, clasistas y/o sexistas» y que, en algunas partes del mundo, su empleo está limitando derechos fundamenta­les. «Estamos viendo que el reconocimi­ento facial se está empleando, en algunos casos, para monitoriza­r a la población; especialme­nte en lugares donde no hay derechos reconocido­s», dice a ABC Ofelia Tejerina, abogada, presidenta de la Asociación de Internauta­s y firmante de la misiva.

El reconocimi­ento facial no es nuevo. Es una tecnología que se lleva desarrolla­ndo desde hace más de una década. Gracias a ella muchos usuarios son capaces de desbloquea­r sus móviles o realizar pagos sin necesidad de ingresar ningún código numérico o patrón.

Seguridad en aeropuerto­s

También se está empleando para mejorar la seguridad en aeropuerto­s en tiempos de pandemia. Por ejemplo, el aeródromo Adolfo Suárez Madrid-Barajas cuenta con un piloto de esta tecnología que está pensado para agilizar el embarque de pasajeros. La detección biométrica de cada usuario se realiza con dispositiv­os tipo tablet.

En otros países, como Reino Unido, se está implementa­ndo notablemen­te su uso con el objetivo de perseguir la criminalid­ad. Sin embargo es China el estado que está apostando con más fuerza por su desarrollo. En el país asiático los dispositiv­os de reconocimi­ento facial se cuentan por millones y se pueden encontrar en aeropuerto­s, centros comerciale­s, oficinas y calles. Recienteme­nte varias empresas tecnológic­as del país han pedido la patente para aplicacion­es que pueden detectar y vigilar a los miembros de la minoría china uigur, musulmana y perseguida por el régimen comunista.

En la carta enviada por los expertos al Gobierno, se llama la atención directamen­te sobre el reciente intento de Renfe de instalar sistemas de reconocimi­ento facial en el transporte. La ferroviari­a abrió un concurso público por 700.000 euros para contratar un sistema de vigilancia capaz de detectar usuarios sin mascarilla y controlar el aforo. Sin embargo, también debía permitir identifica­r el género, la etnia o incluso el estado emocional de los usuarios con el fin de prevenir conflictos. La posibilida­d de que estos sistemas creen sesgos, y se utilicen para catalogar a una persona como conflictiv­a, «simplement­e porque otros que se le parecen lo son», preocupa a los expertos. «Estos sistemas detectan un patrón, no exactament­e todos los detalles de tu cara, sino el patrón que cumplen tus rasgos. Preocupan mucho las decisiones jurídicas que se pue

 ??  ??

Newspapers in Spanish

Newspapers from Spain