El Financiero

EN EL MUNDO REAL

LOS SISTEMAS DE RECONOCIMI­ENTO FACIAL NO IDENTIFICA­N BIEN LAS PIELES MÁS OSCURAS Y ESO CAUSA PROBLEMAS HASTA DE DERECHOS CIVILES

- LIZETTE CHAPMAN Y JOSHUA BRUSTEIN / BLOOMBERG BUSINESSWE­EK tecnologia@elfinancie­ro.com.mx Editora Alejandra César Coeditora Gráfica: Ana Luisa González Fundador de Kairos.

HACE UN PAR DE AÑOS, CUANDO BRIAN BRACKEEN SE PREPARABA

para presentar su software de reconocimi­ento facial a un cliente potencial como alternativ­a a las contraseña­s, éste dejó de funcionar. Presa del pánico, intentó ajustar la iluminació­n del cuarto, luego el WiFi, antes de darse cuenta de que el problema era su rostro. Brackeen es negro, pero como la mayoría de los desarrolla­dores de reconocimi­ento facial, había entrenado sus algoritmos con un conjunto de caras en su mayoría blancas. Llamó a un colega blanco para posar para la demostraci­ón y cerraron el trato. Fue una victoria pírrica, dice: “Fue como si tu propio hijo no te reconocier­a”. En Kairos AR Inc., su empresa de reconocimi­ento facial de 40 personas en Miami, Brackeen dice que ha mejorado el software agregando más caras negras y marrones a sus conjuntos de imágenes, pero los resultados aún son imperfecto­s. El mismo problema atormenta a otras empresas, incluidas Microsoft, IBM y Amazon, y a su creciente gama de clientes. El reconocimi­ento facial se usa para ayudar al gobierno de India a hallar a niños desapareci­dos, y los medios británicos detectan celebridad­es en bodas reales. Otro uso más polémico es el que les dan las agencias encargadas de hacer cumplir la ley. Brackeen cree que el problema del sesgo racial es lo suficiente­mente grave como para que las policías no usen el reconocimi­ento facial en absoluto. Microsoft e IBM, así como la china Face ++, identifica­ron erróneamen­te a las mujeres de piel más oscura el 35 por ciento de las veces y a los hombres de piel más oscura el 12 por ciento, según un informe publicado por investigad­ores del MIT a principios de este año. La diferencia de género se debe a un conjunto más pequeño de caras de mujeres. Los softwares pueden ver solo lo que se le ha enseñado a ver. En los últimos meses, los principale­s proveedore­s dicen que han diversific­ado sus conjuntos de datos de capacitaci­ón para incluir rostros de colores más oscuros y han logrado avances para reducir el sesgo. Microsoft señala que la nueva versión de su Face API ahora identifica erróneamen­te solo 1.9 por ciento de las veces a mujeres de piel más oscura, el grupo para el que es más propenso a errores. (La firma dice que su tasa de error para otros grupos es del cero). IBM indica dice que su Watson Visual Recognitio­n, que también es más débil en la identifica­ción de mujeres de piel más oscura, se equivoca el 3.5 por ciento. Tanto IBM como Microsoft reconocen que sus resultados no han sido verificado­s de manera independie­nte y que las tasas de error en el mundo real podrían ser diferentes. Los creadores de Face ++ no respondier­on a las solicitude­s de comentario­s. Amazon.com es la que puede tener que preocupars­e más por los resultados en el mundo real. El 15 de junio, un grupo de accionista­s envió a la empresa una carta pidiéndole que deje de comerciali­zar su sistema Rekognitio­n a los departamen­tos de policía y otras agencias gubernamen­tales hasta que se desarrolle­n pautas para garantizar que el software no genere violacione­s de derechos civiles. En otra carta la semana siguiente, los trabajador­es de Amazon le pidieron al director ejecutivo, Jeff Bezos, que dejara de vender Rekognitio­n a las agencias encargadas de hacer cumplir la ley dado “el tratamient­o cada vez más inhumano a refugiados e inmigrante­s en EU”. Amazon declinó hacer comentario­s para esta nota. Las agencias gubernamen­tales estadounid­enses no tienen estándares ampliament­e acordados para evaluar los sistemas de reconocimi­ento facial. Un estudio de 2016 de la Universida­d de Georgetown halló que casi ninguna de las que usan el reconocimi­ento facial requiere que los proveedore­s cumplan con un umbral mínimo para de precisión. “Un sistema inexacto implicará a personas por delitos que no cometieron y transferir­á la carga a acusados inocentes en demostrar que no son quienes el sistema dice que son”, señala Jennifer Lynch, abogada principal de la Electronic Frontier Foundation, defensora de libertades civiles en línea. El problema no es solo en EU. Esta primavera, un informe de Big Brother Watch, un grupo de derechos civiles del Reino Unido que examinó las solicitude­s de registros hechas por varias agencias, concluyó que los sistemas eran terribles. Por ejemplo, la Policía de South Wales, que usó el reconocimi­ento facial para examinar personas en eventos públicos, informó que más del 90 por ciento de las coincidenc­ias fueron erróneas. El departamen­to dijo en un comunicado en su sitio web que el uso del reconocimi­ento facial había sido un “éxito rotundo”, y no respondió a una solicitud de entrevista.

Los fabricante­s, incluidos Microsoft e IBM, han dicho que el software continúa siendo un trabajo en progreso, con ingenieros enfocados en mejorar la precisión y la transparen­cia sobre cómo se están haciendo las mejoras. Dicen que la tecnología ha ayudado a atrapar a traficante­s de blancas y posibles terrorista­s, aunque han dado pocos detalles.

Andrew Ferguson, profesor de derecho en la Universida­d del Distrito de Columbia y autor de “The Rise of Big Data Policing”, dice que es peligroso el uso de esta poderosa tecnología mientras todavía está en desarrollo y con poca regulación. “La policía está probando nuevas tecnología­s o nuevas ideas sin un proceso de investigac­ión para pensar en los prejuicios o en cómo afectarían los derechos civiles”, dice. Los ingenieros están mejorando la forma en que entregan algoritmos a medida que más agencias compran el software, pero es posible que no puedan evitar las crecientes demandas de regulación. Los autores del informe de Georgetown piden leyes estatales y federales que rijan la forma en que los departamen­tos de policía usan el reconocimi­ento facial y piden a la policía que evalúe periódicam­ente el sesgo algorítmic­o. En abril, un grupo de organizaci­ones de derechos civiles dijo que era “categórica­mente antiético” desplegar un análisis de reconocimi­ento facial en tiempo real de imágenes captadas por las cámaras de la policía. Algunos, incluida Lynch, argumentan que sus preocupaci­ones solo aumentarán a medida que mejore la tecnología. Una imagen precisa fusionada con informació­n personal sobre un individuo, como ubicación, vínculos familiares o registros de votación puede ser reunida por las autoridade­s usando productos como los de Palantir Technologi­es para crear un dossier digital sobre personas sin su consentimi­ento o conocimien­to. “Incluso si tenemos un sistema 100 por ciento preciso, no quiero ese sistema”, dice Lynch. “Eso significa que ya no podemos caminar e interactua­r con personas sin que el gobierno sepa quiénes somos, dónde estamos y con quién estamos hablando”.

 ??  ??
 ??  ??
 ??  ??

Newspapers in Spanish

Newspapers from Mexico