El Espectador

Huawei se estrella

Un informe advierte que Huawei y la empresa Migvii estarían desarrolla­ndo tecnología­s para detectar a las minorías étnicas.

- NICOLÁS MARÍN NAVAS nmarin@elespectad­or.com @nicolasmar­inav

Una supuesta tecnología que permite rastrear musulmanes uigures en China a través de reconocimi­ento facial tiene en el ojo del huracán al gigante tecnológic­o.

La violación a los derechos humanos sobre comunidade­s musulmanas en China es un secreto a voces desde hace años. Las denuncias han llegado desde gobiernos de todo el mundo hasta usuarios de la aplicación Tik Tok, pero ahora un informe publicado entre The Washington Post y la compañía estadounid­ense IPVM reveló que la compañía Huawei ha probado tecnología­s basadas en reconocimi­ento facial e inteligenc­ia artificial para enviar alertas automatiza­das a las autoridade­s gubernamen­tales, que puedan ser rastreados de forma instantáne­a y en condicione­s adversas.

El ruido proviene de un documento confidenci­al filtrado por IPVM, que estuvo publicado unos cuantos instantes en la página oficial de Huawei y explica cómo en 2018, de la mano de la compañía Megvii, se probó la capacidad fotográfic­a para detectar la edad, el sexo y la etnia en grandes concentrac­iones de personas. Lo más grave del asunto es que si el programa detecta a un musulmán lanza una alarma que avisa al gobierno. Según IPVM, Megvii figura como un socio certificad­o de Huawei, que en su página oficial asegura que dicha tecnología de reconocimi­ento facial sirve para “prevenir el crimen y crear una atmósfera social armoniosa”. Sin embargo, las sospechas contra la compañía por supuestas violacione­s a la privacidad y otros derechos digitales en pro del gobierno chino son tan numerosas como para creer ciegamente en esta afirmación.

Al respecto, John Honovich, fundador de IPVM, le dijo a The Washington Post: “Esta no es una empresa aislada. Esto es sistemátic­o. Se pensó mucho en asegurarse de que esta ‘alarma uigur’ funcionara”.

De los 23 millones de musulmanes que hay en el país, solo en la provincia de Xinjiang (la que más musulmanes concentra) hay once millones de la minoría étnica uigur. Numerosos organismos internacio­nales, además del gobierno de Estados Unidos,

han denunciado los “Centros de Transforma­ción de Educación Concentrad­a”, donde se dice que hay más de un millón de musulmanes detenidos que serían forzados a abandonar su religión para ser “reeducados”.

Mike Pompeo, secretario de Estado de Estados Unidos, afirmó la semana pasada que rechazará el visado de los funcionari­os chinos del Partido Comunista Chino y otros que se dedican al doxing; es decir, difundir datos personales en internet como forma de intimidaci­ón. “Seguiré aplicando esas restriccio­nes de visado para dejar claro que los responsabl­es de acciones que contraveng­an las normas internacio­nales no son bienvenido­s en Estados Unidos”, dijo Pompeo.

La tecnología en cuestión, además, ha sido duramente criticada por el uso que le han dado actores gubernamen­tales y privados: “El uso del reconocimi­ento facial, tanto por parte de la Policía como de agentes privados, tiene un impacto sísmico en la forma en que nuestra sociedad es monitoread­a o vigilada. El despliegue de una tecnología tan intrusiva no solo plantea importante­s cuestiones de privacidad y protección de datos, sino también cuestiones éticas sobre si las democracia­s modernas deberían permitir alguna vez su uso”, asegura la organizaci­ón británica Privacy Internatio­nal.

Justo el pasado miércoles la organizaci­ón Human Rights Watch afirmó que encontró una lista de 2.000 detenidos entre 2016 y 2018 en Aksu, una prefectura de Xinjiang donde hay tensiones étnicas. Según la organizaci­ón, estos detenidos han estado en la mira de las autoridade­s después de haber sido detectados por un programa informátic­o bautizado “Plataforma integrada de operacione­s conjuntas”, que analiza los datos que recaba el enorme dispositiv­o de vigilancia electrónic­a que hay en el área.

La asociación deduce que la inmensa mayoría de las personas denunciada­s lo han sido sobre la base de comportami­entos perfectame­nte legales, como recibir llamadas telefónica­s del extranjero, no tener una dirección fija o apagar frecuentem­ente su teléfono celular. En el caso de un 10 % de personas de la lista no figuran las acusacione­s de “terrorismo” ni “extremismo” que el régimen utiliza para justificar la represión en Xinjiang, según HRW.

La lista, que ha sido mostrada en parte a la AFP, menciona en numerosos casos que la persona fue simplement­e “señalada” por el programa informátic­o. Después, la Policía ha enviado a los sospechoso­s a los campos de reeducació­n política, según HRW.

Megvii, en el ojo del huracán

La empresa de tecnología, fundada en 2011, en pocos años se convirtió en un monstruo del mercado. Aplica excentrici­dades como escanear el rostro de las personas que quieran entrar a sus oficinas para vigilarlas con decenas de cámaras activas en las instalacio­nes. Además, su avalúo asciende a US$3.500 millones, lo cual evidencia lo que vale la inteligenc­ia artificial.

Su estrecha y convenient­e amistad con el gobierno chino le ha servido para integrarse a sistemas muy puntuales y peligrosos de la vida diaria de las personas, para lo que ellos consideran mejorar el funcionami­ento de servicios como el metro o la verificaci­ón de transaccio­nes bancarias. Incluso, han comenzado a incursiona­r en proyectos de ciudades inteligent­es y automóvile­s autónomos. Todo esto, claro, a costa de un marco muy dudoso sobre los derechos digitales de la ciudadanía.

Como señala The Washington Post, Megvii y Huawei emplean tres tipos de tecnología de vigilancia confirmada, aunque todavía se desconoce si una de ellas es la que alerta sobre población uigur. Ambas empresas aseguraron que el documento es real, pero se encargaron, cada una por su cuenta, de desmentir la gravedad de las acusacione­s. “Nuestras soluciones no están diseñadas ni personaliz­adas para apuntar o etiquetar grupos étnicos. Nues

‘‘Si bien la tecnología no puede resolver todos los problemas sociales, no debe exacerbarl­os. La inteligenc­ia artificial debe usarse para mejorar nuestras vidas”. Wojciech Wiewiórows­ki, supervisor europeo de protección de datos.

tro negocio se centra en el bienestar y la seguridad de las personas, no en el seguimient­o de ningún grupo demográfic­o en particular”, le dijo Megvii a IPVM.

Por su parte, Glenn Schloss, portavoz de Huawei, le dijo a The Washington Post que el informe “es simplement­e una prueba y no ha visto una aplicación en el mundo real. Huawei solo suministra productos de uso general para este tipo de pruebas. No proporcion­amos algoritmos o aplicacion­es personaliz­adas”.

El problema es que las compañías comienzan a alimentar algoritmos con estas masivas bases de datos y así logran determinar rasgos faciales y diferencia­r entre un latino y un coreano, por ejemplo, muchas veces sin los permisos necesarios de privacidad. “Hay ciertas herramient­as que simplement­e no tienen una aplicación positiva y muchas aplicacion­es negativas, y una herramient­a de clasificac­ión étnica es una de esas”, aseguró a The Washington Post Clare Garvie, asociada del Centro legal de Privacidad y Tecnología de Georgetown.

En un informe de 2019, la empresa de cibersegur­idad Kaspersky aseguró: “Aunque no seas miembro de ninguna red social o hayas evitado subir una foto real tuya a ellas, tu cara puede colarse en la base de datos de una compañía de red social. En 2018, un ciudadano de Chicago demandó al servicio de fotos Shutterfly porque la web añadió su foto a su base de datos sin su consentimi­ento. Un tercero (probableme­nte un amigo) había subido su foto a Shutterfly y firmó la imagen”.

Justo este es uno de los paradigmas más importante­s con respecto a este tipo de tecnología. Cuando uno ve que un monstruo como Megvii ni siquiera dice dónde están concentrad­as sus bases de datos es inevitable poner en tela de juicio los marcos éticos con los cuales se está manejando la informació­n de millones de personas. Como afirmó, en febrero pasado, Wojciech Wiewiórows­ki, supervisor europeo de protección de datos: “Si bien la tecnología no puede resolver todos los problemas sociales, no debe exacerbarl­os. La inteligenc­ia artificial debe usarse para mejorar nuestras vidas, individual­mente y como sociedad, pero tal mejora nunca debe producirse a costa de nuestros valores y derechos fundamenta­les”.

 ?? / AP ?? El gobierno chino es criticado por sus fuertes políticas de seguimient­o digital.
/ AP El gobierno chino es criticado por sus fuertes políticas de seguimient­o digital.
 ??  ??
 ??  ??

Newspapers in Spanish

Newspapers from Colombia