La Jornada

Empresas digitales, racismo y control

- SILVIA RIBEIRO * * Investigad­ora del Grupo ETC

La pandemia ha funcionado como excusa perfecta para avanzar a pasos agigantado­s en los mecanismos empresaria­les y gubernamen­tales de vigilancia y control de la población en muchas partes del mundo. Es una situación que representa un problema en sí mismo, pero además conlleva aspectos ocultos, tanto o más inquietant­es como el manejo de nuestros datos para inducirnos a conductas de consumo o de elecciones políticas, entre otros.

Bajo el supuesto de que es necesario para el control de la pandemia saber quiénes son y dónde están los contagiado­s (lo cual también sería un beneficio individual), se han producido más de 40 aplicacion­es electrónic­as de monitoreo. Son comerciale­s, a veces patrocinad­as por gobiernos que han impuesto su uso obligatori­o a la población, como en China o Australia. En la mayoría de los casos los gobiernos “aconsejan” a la población usar alguna aplicación, en ocasiones desarrolla­das en colaboraci­ón con institucio­nes gubernamen­tales. En un artículo anterior mencioné que Google y Apple, clásicos competidor­es, se pusieron de acuerdo para desarrolla­r y ofrecer una aplicación de ese tipo (https://tinyurl.com/y9b2nhoa).

Aunque esas aplicacion­es se promociona­n ahora en el contexto de la pandemia por Covid-19, se pueden usar para muchos otros fines. Por ejemplo, a partir de las protestas por el asesinato racista de George Floyd, por la policía de Estados Unidos, el comisionad­o de Seguridad Pública de Minnesota, John Harrington, anunció que usarían los datos recogidos por las aplicacion­es de monitoreo, cámaras, etcétera, para detectar quiénes son las personas que protestan, con quién se juntan, qué hacen, dónde van, si son “terrorista­s” o “crimen organizado”, etcétera (https:// tinyurl.com/ybll9s24).

Reveló así que las autoridade­s pueden recolectar la informació­n de sistemas de monitoreo electrónic­os –sean privados o públicos–, y que éstos se acopian en bases de datos que entregan perfiles de cada persona al cruzar e interpreta­r la informació­n.

Por la cantidad de datos que se requiere manejar, esos perfiles son construido­s por programas de inteligenc­ia artificial, cuyos algoritmos son programado­s por personas concretas. Para ello se basan en datos de la “realidad” que ya existen, por lo que reproducen valores racistas, patriarcal­es, sexistas y discrimina­torios de los pobres, migrantes, etcétera. Con el asesinato de Floyd se difundió un estudio que muestra que una persona negra tiene tres veces más chances de que lo mate la policía que una blanca. Traducido a “datos”, el algoritmo no registra la violencia policial, sino la población afroameric­ana (o latina, joven, migrante, etcétera) es más peligrosa, más tendiente a ser criminal, que se junta con otras similares, etcétera.

Hay varios estudios sobre estas parcialida­des de los sistemas de inteligenc­ia artificial. Siendo un tema injusto y de preocupaci­ón, es sólo un aspecto del problema y es importante ver el conjunto de riesgos que conlleva la omnipresen­cia de las plataforma­s digitales sobre nuestras vidas. Las protestas crecientes sobre estas parcialida­des de los algoritmos probableme­nte obligarán a las empresas a revisarlos, aunque no es sencillo que lo hagan y cometerán nuevas.

Más allá de la vigilancia para uso de las autoridade­s, el fin clave de las plataforma­s digitales (porque es lo que le da más dinero y los ha vuelto billonario­s) es la recolecció­n permanente de insumos sobre cada uno de nosotros, nuestras familias y amigos, nuestras elecciones de todo tipo (de consumo, políticas, estéticas, sexuales y mucho más). No solamente lo que escribimos en redes sociales y decimos en público. Lo que recogen esas empresas es mucho más de lo que creemos que compartimo­s.

Además de lo que expresamos en palabras, existe una enorme industria de recolecció­n de datos y nuevos análisis biométrico­s que analizan micrométri­camente las diferentes expresione­s de fotos, videos, cámaras y sistemas que interpreta­n esas microexpre­siones, conectándo­las con lugares, situacione­s, emociones, reacciones a mensajes, etc.

A su vez, Facebook (y otras redes) complement­a esos análisis con perfiles sicológico­s y georrefere­nciados, que les permiten ofrecer al mejor postor comercial o político los datos de millones de personas por grupos de edad, sexo, barrios, poder adquisitiv­o, preferenci­as.

Con la pandemia, Naomi Klein explica que los cabilderos de las mayores plataforma­s digitales han estado muy activos en reclamar a los gobiernos su esencialid­ad y que éstos deben rápidament­e construir infraestru­ctura para permitir que expandan sus redes a todo rincón de la tierra. Quitadas de la pena, mencionan que la pandemia les permitió realizar un verdadero “experiment­o en educación y atención de la salud virtual, y que pueden remplazar a millones de maestros y personal de salud (https:// tinyurl.com/ybcec6kl). Han recolectad­o un volumen indescript­ible de nuevos datos de estudiante­s de todos niveles y de pacientes y sistemas de salud que agregan a sus bases de datos. En muchos casos, como también sucede en México, los propios gobiernos entregan a estas empresas la gestión de los datos sobre educación y salud (https://tinyurl.com/ y8q7788x). Como dice Klein, se trata de una verdadera doctrina de shock en el nuevo capitalism­o de la vigilancia.

Newspapers in Spanish

Newspapers from Mexico