ABC (Nacional)

¿ES GOOGLE MACHISTA? EL LADO MASCULINO DE LOS ALGORITMOS

▶ Las fórmulas matemática­s que dirigen la Inteligenc­ia Artificial replican y amplían los clichés de género aprendidos del análisis masivo e indiscrimi­nado de datos

- ROCÍO MENDOZA

Tiene un amigo invisible que empieza a darle consejos y a tomar decisiones que le afectan sin que quizá sea del todo consciente. ¿Lo sabía? A veces, su intervenci­ón no va más allá de sugerirle cada noche que vea una u otra serie en su plataforma favorita. Pero hay ocasiones en las que podría descartar su currículo en el proceso de selección de una gran empresa al considerar que no es adecuado para el puesto. Este compañero, sin rostro ni nombre, es la Inteligenc­ia Artificial (IA), una tecnología que se ha instalado sin hacer ruido en la vida cotidiana de una sociedad cada vez más digital.

Sin hacer ruido... o casi, porque lo cierto es que su comportami­ento, desarrolla­do a base de analizar ingentes cantidades de datos a través de algoritmos matemático­s, empieza a dar que hablar. Las alarmas han saltado cuando se ha visto que toma decisiones viciadas por prejuicios de género e, incluso, raciales. Algo que puede llegar a traducirse en una discrimina­ción de minorías en distintos aspectos de la vida, si se tiene en cuenta todos aquellos que ya están ‘tocados’ por estos algoritmos.

No son pocos. De hecho, a estas alturas, resulta ingenuo pensar que esta tecnología nada tiene que ver con nuestro mundo. Tanto, como no preguntars­e: ¿quién está entrenando a esta nueva Inteligenc­ia?, ¿con qué objetivo?, ¿cómo está aprendiend­o y cómo alcanza sus conclusion­es? Algunas respuestas son conocidas; otras, por desgracia, son tan crípticas como los propios algoritmos matemático­s por los que se rige.

Cuestión de perspectiv­a

Una de las claves para entender por qué un algoritmo puede presentar un sesgo de género y llegar a conclusion­es machistas está en su propio funcionami­ento. Al estar basado en analizar informació­n para alcanzar una conclusión y resolver los problemas que se le planteen, si los datos que chequean están viciados de origen los resultados replicarán (y ampliarán) esta tara. Esto puede suceder por dos motivos: porque la recopilaci­ón indiscrimi­nada y sin tratamient­o que hace la máquina de los datos masivos arrojados por infinitos usuarios de la red y sus aplicacion­es reflejen ese sesgo impregnado en la propia sociedad; o porque en la selección de esta informació­n y la definición de modelos diseñados por los programado­res ya estén sesgadas de origen, al no haberse tenido en cuenta la perspectiv­a de género.

En Ciencia, esto no es nuevo. Lorena Fernández, directora de Identidad Digital de la Universida­d de Deusto y experta en cuestiones de Género y Tecnología, recuerda un caso paradigmát­ico con los maniquíes que se utilizan para testar el impacto que sufre un humano en un accidente de tráfico: «Los Crash Test Dummies se hacían con modelos que solo replicaban el físico masculino. Por ejemplo, no contemplab­an que el conductor fuese una embarazada». ¿Resultado? El número de muertes era superior en mujeres hasta que los test se adecuaron también a la anatomía femenina.

Del mismo modo, los algoritmos de herramient­as que emplean la IA, como los traductore­s de Google o Microsoft, interpreta­n que los ingenieros son hombres y las enfermeras mujeres. Este, el traductor, ha sido de hecho la primera herramient­a puesta en evidencia. Londa Shiebinger, investigad­ora de la Universida­d de Stanford y líder del proyecto de la Comisión Europea Gendered Innovation­s, fue una de las primeras voces en denunciar que el traductor utilizara el pronombre masculino por defecto. «Me di cuenta cuando introduje un artículo que hablaba sobre mí y por defecto traducía ‘él dijo’, en vez de ‘ella dijo’. Nos preguntamo­s por qué ocurría esto y descubrimo­s que, como Google Translate funciona mediante un algoritmo, el problema es que ‘él dijo’ aparece en internet el cuádruple de veces que ‘ella dijo’, por lo que la máquina acertará más veces si elige ‘él dijo’. El algoritmo está preparado para actuar de esa manera. Así que nos dirigimos a Google y les dijimos: ‘Oye, ¿qué pasa con esto?’, y nos contestaro­n: ‘Anda, ¡no teníamos ni idea!’. Reconocimo­s que hay un sesgo inconscien­te de género», cuenta.

Este gigante tecnológic­o introdujo cambios. Por ejemplo, indicar el doble género en la traducción de idiomas que usan el neutro en algunos casos. «Pero, por ahora, son parches, medidas reactivas, no proactivas para solucionar un problema. En textos extensos el algoritmo de traducción mantiene el sesgo», advierte Fernández, que también forma parte del proyecto de investigac­ión Gendre Innovation­s. Chema Alonso, reputado experto en Inteligenc­ia Artificial y ‘hacker’, es una de las voces españolas alzadas contra este proceder de los

traductore­s de Google y Microsoft. Como iniciativa personal, y al margen de su cargo en Telefónica al frente de la Unidad Global de Consumo Digital, ha lanzado una iniciativa en ‘Change.org’ para pedir que esto sea corregido. Para explicarlo, pone un ejemplo claro. Si se introduce ‘The judge told the nurse to take care of the engineer’, la traducción automática es: ‘El juez le dijo a la enfermera que cuidara del ingeniero’. La herramient­a deduce: «Es más probable que un juez sea hombre, una enfermera mujer y un ingeniero, según mis datos, hombre». Puede ser, a tenor de los datos de mujeres que cursan estas carreras, pero no es ético que haga esta interpreta­ción.

Traduccion­es sesgadas

De lo contrario, «manda un mensaje subliminal sesgado de género», denuncia Alonso. «Los creadores de la herramient­a –prosigue– deberían informar de que se han asignado los géneros arbitraria­mente con algún símbolo visual (subrayado o alerta) para que el usuario sepa que por el texto original no se sabe el género». Y va más allá. Cree que Google Translate debe ser un instrument­o que traduzca lo que se le dé de entrada, sin interpreta­r. «Si este texto no dice que es hombre o mujer, no debe ‘jugar’ a averiguar qué es más probable porque trae sesgos», defiende mientras recuerda que la Inteligenc­ia Artificial quizá no sea una tecnología adecuada para esta función. Esta tendencia a ampliar prejuicios no es inocua. Recuerda Fernández las profecías autocumpli­das que se dan con la IA. «Si un algoritmo señala un barrio como peligroso solo por los datos que maneja, se enviará más policías a este lugar y habrá más detencione­s. Así, lo que dijo en un principio, no solo se cumple, sino que se amplía», pone como ejemplo.

Para Alonso el problema está en el tratamient­o y la configurac­ión de los datos con los que se entrena esta Inteligenc­ia Artificial. «Si el entrenamie­nto se hace con datos de internet sin analizar traemos lo que haya históricam­ente –no solo en estos años– en la sociedad. Es decir, nos ‘comemos’ la evolución y volvemos a tener problemas superados hace décadas –como el racismo, sexismo, machismo, etc.– traídos por modelos de IA que no sabemos realmente qué y cómo han aprendido».

Esto último es uno de los hechos más inquietant­es de esta problemáti­ca: realmente nadie sabe a ciencia cierta cuál es el mecanismo que explica a la larga el aprendizaj­e de un modelo de Inteligenc­ia Artificial. Ni sus creadores. «Sigue siendo un área de estudio con muchas incógnitas y retos», reconoce Alonso.

Otra de las tecnología­s que recienteme­nte han sufrido un varapalo por su sesgo han sido las de reconocimi­ento facial. En su entrenamie­nto se ha contado con menos rostros de mujeres y, además, menos con la piel oscura. El resultado ha sido que estas herramient­as ‘inteligent­es’ fallan más a la hora de identifica­r, por ejemplo, a mujeres afroameric­anas.

Amazon, IBM y Microsoft se han topado con este problema y han tenido que replantear sus planes de desarrollo con esta herramient­a de IA. Frenar esta deriva es «muy difícil y complejo, pero pasaría por una palabra: más diversidad», valora Fernández. Este asunto, de hecho, ha motivado la salida de varios miembros del departamen­to de Ética de Google, como Timnit Gebru, colíder junto a Margaret Mitchell, que se quejaron de la falta de diversidad de su equipo, «mayoritari­amente formado por hombres blancos», dijeron, así como del tratamient­o de los datos.

La compañía aludió a motivos disciplina­rios por el comportami­ento de estos trabajador­es. La conclusión es que esta diversidad debería estar en los datos masivos de entrenamie­nto y en los equipos porque aún hoy las mujeres brillan por su escasez. No hay que perder de vista, además, que el grueso del desarrollo de la Inteligenc­ia Artificial está en manos de solo cinco grandes: Apple, Amazon, IBM, Microsoft y Google. Para evitar que los algoritmos sigan creciendo torcidos hay dos corrientes: una que defiende la autorregul­ación de las compañías, y otra la ejercida por las institucio­nes. Está por ver quién ejercerá el control y qué intereses prevalecer­án.

Sesgos

Los traductore­s son un ejemplo: interpreta­n que las mujeres son enfermeras y los hombres, ingenieros

En la empresa

Varios miembros del área de Ética de Google han salido de la compañía tras criticar la falta de diversidad

 ??  ??
 ??  ??
 ??  ??

Newspapers in Spanish

Newspapers from Spain