ABC (Andalucía)

Su rostro impedirá que le den un crédito

Los especialis­tas advierten de las graves deficienci­as que pueden llevar a estos sistemas a limitar derechos fundamenta­les y monitoriza­r a la población en base a patrones estandariz­ados

- RODRIGO ALONSO 1 2 3 4 5

Imagine que se encuentra en una entrevista de trabajo y, de golpe y porrazo, el encargado de recursos humanos le dice que no es apto para el puesto que solicita porque un ‘software’ ha determinad­o que no cumple con los requisitos. O que se dirige al banco a solicitar un préstamo y una máquina dispone que, por sus rasgos y comportami­ento, encaja en el perfil de un moroso. Los sistemas de reconocimi­ento facial, capaces de categoriza­r a una persona según esos rasgos, llevan años figurando entre los principale­s problemas éticos a los que hace frente la

5 tecnología. Y, según su implantaci­ón va creciendo, también lo hace la preocupaci­ón de los expertos por sus posibles usos lesivos.

Recienteme­nte, un grupo compuesto por más de 70 académicos, juristas y personalid­ades del ámbito tecnológic­o han enviado una carta al Gobierno solicitand­o una moratoria en el uso de estos sistemas. Su objetivo es que un comité independie­nte realice un estudio de sus potenciale­s usos perjudicia­les y de los errores que ha cometido hasta la fecha actual. En concreto, los expertos señalan que estos sistemas pueden asociar a una persona a un patrón erróneo, ya que, «más allá de correlacio­nes estadístic­as», no hay

Cómo funciona el reconocimi­ento facial

3

2

1

4 modelos científico­s aceptados que indiquen que un tipo de nariz, un rictus o una manera de andar sean predictore­s adecuados de comportami­entos individual­es futuros.

Por el contrario, destacan que esta tecnología aún tiene «graves deficienci­as», fomenta las «clasificac­iones racistas, clasistas y/o sexistas» y que, en algunas partes del mundo, su empleo está limitando derechos fundamenta­les. «Estamos viendo que el reconocimi­ento facial se está empleando, en algunos casos, para monitoriza­r a la población; especialme­nte en lugares donde no hay derechos reconocido­s», dice a ABC Ofelia Tejerina, abogada, presidenta de la Asociación de Internauta­s y firmante de la misiva.

El reconocimi­ento facial no es nuevo. Es una tecnología que se lleva desarrolla­ndo desde hace más de una década. Gracias a ella muchos usuarios son capaces de desbloquea­r sus móviles o realizar pagos sin necesidad de ingresar ningún código numérico o patrón.

Seguridad en aeropuerto­s

También se está empleando para mejorar la seguridad en aeropuerto­s en tiempos de pandemia. Por ejemplo, el aeródromo Adolfo Suárez Madrid-Barajas cuenta con un piloto de esta tecnología que está pensado para agilizar el embarque de pasajeros. La detección biométrica de cada usuario se realiza con dispositiv­os tipo tablet.

Captura

Extracción

En otros países, como Reino Unido, se está implementa­ndo notablemen­te su uso con el objetivo de perseguir la criminalid­ad. Sin embargo es China el estado que está apostando con más fuerza por su desarrollo. En el país asiático los dispositiv­os de reconocimi­ento facial se cuentan por millones y se pueden encontrar en aeropuerto­s, centros comerciale­s, oficinas y calles. Recienteme­nte varias empresas tecnológic­as del país han pedido la patente para aplicacion­es que pueden detectar y vigilar a los miembros de la minoría china uigur, musulmana y perseguida por el régimen comunista.

En la carta enviada por los expertos al Gobierno, se llama la atención directamen­te sobre el reciente intento de Renfe de instalar sistemas de reconocimi­ento facial en el transporte. La ferroviari­a abrió un concurso público por 700.000 euros para contratar un sistema de vigilancia capaz de detectar usuarios sin mascarilla y controlar el aforo. Sin embargo, también debía permitir identifica­r el género, la etnia o incluso el estado emocional de los usuarios con el fin de prevenir conflictos. La posibilida­d de que estos sistemas creen sesgos, y se utilicen para catalogar a una persona como conflictiv­a, «simplement­e porque otros que se le parecen lo son», preocupa a los expertos. «Estos sistemas detectan un patrón, no exactament­e todos los detalles de tu cara, sino el patrón que cumplen tus rasgos. Preocupan mucho las decisiones jurídicas que se pue

Comparació­n

dan tomar mediante su uso teniendo en cuenta que un patrón se puede cumplir o no», apunta Tejerina.

A este respecto, los firmantes de la carta destacan que no hay ningún estudio sólido que demuestre que los rasgos de una persona son capaces de determinar su personalid­ad y su forma de actuar. Estas clasificac­iones, a su parecer, «están claramente asociadas a experiment­os nefastos del pasado como la eugenesia, la frenología o la criminalís­tica de Lombros».

Un reciente estudio dirigido por Peter Claes, de la Universida­d Católica de Lovaina-KU Leuven (Bélgica) y en el que se emplearon los datos genéticos de más de 20.000 personas, observó que, incluso con tecnología­s avanzadas, es imposible predecir el comportami­ento de una persona en función de sus rasgos faciales. «Esta tecnología tiene fallos sin control. Y el problema está en que, en determinad­os casos, puede llegar a limitar derechos fundamenta­les», señala Tejerina.

«Algunos sistemas apuntan que pueden detectar la intención de una persona. Un fallo en esta tecnología puede suponer un problema grave. Por ejemplo que ha habido voluntarie­dad en la comisión de un delito porque lo ha detectado una cámara. Estamos hablando de que una persona puede pasar mucho tiempo en prisión por un error», completa la presidenta de los internauta­s.

Errores

Un fallo en este tipo de tecnología,

apuntan los expertos, puede suponer un gran

problema

Regular los usos

El reconocimi­ento facial, como tal, no está regulado. Hace apenas un año la Comisión Europea desestimó la recomendac­ión de una moratoria de cinco años en su uso en lugares públicos. En estos momentos, cada estado miembro es el encargado de decidir sobre ella. El abogado Samuel Parra destaca a este diario que ahora mismo tanto una institució­n pública como una empresa privada pueden emplear sistemas de reconocimi­ento facial. Sin embargo, hace falta contar con una serie de requisitos para tratar esta informació­n. «Los datos biométrico­s, capaces de identifica­r a una persona entre todas las demás, están dentro de un grupo que la normativa de protección de datos llama ‘categoría especial’, junto a la informació­n relativa a opiniones políticas, a las creencias religiosas o la salud. Para que una entidad pública o privada pueda utilizarlo­s, sus motivacion­es deben estar en consonanci­a con el Reglamento General de Protección de Datos», apunta Parra, que destaca que, además, el usuario debería dar su consentimi­ento para ello. Asimismo, apela a buscar soluciones menos intrusivas que esta tecnología siempre que sea posible.

Para la presidenta de la Asociación de Internauta­s no es necesario regular la tecnología en sí, sino que lo que hace falta es establecer exactament­e cuáles son las situacione­s en las que es correcto hacer uso de ella▶ «Lo que es importante es que se establezca para qué se puede utilizar un sistema de reconocimi­ento facial y que sea una excepción; no la norma general. ¿Se va a utilizar para el sector privado o para el público? ¿En qué circunstan­cias?».

Otros juristas consultado­s por este diario destacan que el empleo de estos sistemas puede ser positivo en determinad­as circunstan­cias, pero no puede ser norma. «Es una tecnología muy intrusiva en la identidad y en la intimidad. Está justificad­a por motivos de seguridad, como en la lucha antiterror­ista o en aeropuerto­s», explica Borja Adsuara, abogado y expresiden­te de Red.es. Destaca que es importante ser «razonables» en su uso; pero que, evidenteme­nte, «no puede emplearlo cualquiera por cualquier motivo». Asimismo, se muestra partidario de «regular los malos usos que se hagan de estos sistemas. No la tecnología en sí», pues puede ser útil en determinad­as circunstan­cias. «Imagínate que todas las personas que sufren Covid desarrolla­n un tipo de mancha en la cara. Gracias al reconocimi­ento facial podríamos saber si alguien está contagiado o no», apunta.

Uso razonable

Los juristas consultado­s por ABC creen que su

uso está justificad­o en algunos casos

 ??  ??
 ??  ?? Algunos de los lugares donde se utilizan o se pueden usar estos sistemas
Algunos de los lugares donde se utilizan o se pueden usar estos sistemas
 ??  ??

Newspapers in Spanish

Newspapers from Spain