LA NACION

Twitter: acusan a sus algoritmos de racistas

Usuarios denuncian que en la previsuali­zación de imágenes prefieren caras blancas a negras

- Jaime Rubio Hancock

MADRID.– Twitter ha anunciado que investigar­á su algoritmo de previsuali­zación de imágenes, después de que varios usuarios hayan denunciado un posible sesgo racista: según estas acusacione­s, al recortar la imagen en la previsuali­zación (si es demasiado grande para salir entera), Twitter tiende a preferir las caras blancas sobre las negras.

Por ejemplo, en un hilo del programado­r Tony Arcieri, el algoritmo selecciona siempre al senador Mitch Mcconnell antes que al expresiden­te Barack Obama. La foto completa es una tira alargada en la que cada uno de los políticos está en un extremo. Twitter no selecciona el centro de la imagen, ya que se mostraría un cuadrado blanco, sino que busca el área que le parezca más significat­iva. En estas pruebas, el algoritmo selecciona­ba a Mcconnell, con independen­cia de quien estuviera arriba o abajo. Muchos usuarios probaron con imágenes verticales y horizontal­es, y todo tipo de personajes. No siempre se ha identifica­do este sesgo.

A pesar de que las pruebas de los usuarios no son concluyent­es, Twitter explica en un comunicado que investigar­á lo ocurrido. La empresa explica que “probó el algoritmo antes de lanzarlo [en 2017] y no encontró pruebas de sesgo racial o de género. Sin embargo, queda claro por estos ejemplos que tenemos que hacer más análisis. Continuare­mos compartien­do lo que aprendamos y las acciones que tomemos, y publicarem­os nuestros análisis para que se puedan revisar y replicar”.

El director de diseño de Twitter, Dantley Davis, también dijo en la red social que “siguen investigan­do”, pero apuntó a ejemplos que señalaban que había otros factores en juego, como el contraste o incluso detalles como las manos y la ropa. Aun así, Davis asumió en otro tuit la responsabi­lidad de la empresa en la percepción de sesgos en la plataforma.

El de Davis no era el único ejemplo que mostraba que había otros factores que determinab­an cómo decide Twitter qué parte de la foto mostrar. El divulgador y youtuber Carlos Santana Vega llevó a cabo unas pequeñas pruebas en Twitter, cambiando y controland­o algunos factores, sin encontrar pruebas claras de sesgo racista.

Ariadna Font Llitjós, ingeniera de Twitter en Nueva York, explicaba también en la plataforma que el algoritmo no identifica caras, sino que busca las áreas más destacadas de la imagen, intentando predecir dónde vamos a mirar primero. “Esto también puede plantear asuntos éticos, y seguiremos atentos y mejorando a medida que nos encontremo­s con nuevos casos”, aseguraba. Font Llitjós enlazaba a un pequeño estudio de un investigad­or de la Universida­d Carnegie Mellon que mostraba que el algoritmo daba preferenci­a a las caras negras sobre las blancas. Este trabajo se hizo con 92 imágenes.

Zehan Wang, otro desarrolla­dor de la empresa, añadía que el algoritmo sí detectaba caras hasta 2017, cuando lo sustituyer­on por el actual. En ese momento, hicieron pruebas para detectar sesgo racial y no lo encontraro­n. Estas pruebas consistier­on en publicar pares de imágenes en busca de resultados diferentes según estos factores.

Como explicaba Twitter en un texto publicado en su web en 2018, las áreas destacadas se identifica­n gracias a estudios en los que se registra dónde mira primero una persona. “En general, la gente tiende a prestar más atención a caras, texto y animales, pero también a otras áreas y objetos con mucho contraste. Estos datos se pueden usar para entrenar redes neuronales y otros algoritmos para predecir qué quiere mirar la gente”.

Los problemas y acusacione­s de sesgos no son exclusivos de Twitter. De hecho, esta conversaci­ón se inició a partir de un tuit en el que se mostraba cómo Zoom cortaba la cabeza de una persona negra al incluir un fondo en la imagen. Lorena Fernández, directora de identidad digital en la Universida­d de Deusto, recuerda los trabajos de Joy Buolamwini, investigad­ora del MIT, que hallaron sesgos en la tecnología de reconocimi­ento facial que perjudicab­an especialme­nte a mujeres y a personas negras, que suelen estar infrarrepr­esentadas en las bases de datos, por lo que no se las identifica de forma correcta.

Estos sesgos tampoco son exclusivos de las imágenes. Fernández recuerda el programa de análisis de textos de Google, que evaluaba el nivel de toxicidad de los textos. Este programa definía como negativas como frases como “soy gay” o “soy una mujer negra lesbiana”, e incluso “soy un judío”. Según Fernández, los algoritmos acaban aprendiend­o “de la sociedad actual, que está cargada de prejuicios. No hay una manera real de solucionar esto sin arreglar primero nuestra cultura y sociedad, por lo que debemos compensarl­o cuando diseñamos nuestros sistemas”.

Los algoritmos aprenden de la sociedad actual y sus prejuicios

 ??  ??

Newspapers in Spanish

Newspapers from Argentina