La Vanguardia (1ª edición)

Las máquinas también tienen prejuicios

Los programas de traducción automática perpetúan los sesgos sexistas dominantes en cada lenguaje

- NÚRIA JAR Barcelona

El traductor de Google y otros sistemas de traducción automática están hechos a base de algoritmos que se han ido perfeccion­ando en el último medio siglo. Pero a pesar de los avances en procesamie­nto natural del lenguaje, las máquinas no están libres de errores ni de ideología. Estos programas se nutren de textos escritos en distintos idiomas para aprender de las equivalenc­ias de una lengua a otra: desde las actas del Parlamento Europeo y de la Organizaci­ón de las Naciones Unidas (ONU) hasta los subtítulos de películas, las noticias, el apéndice de vocabulari­o de las guías de turismo, los libros más vendidos como la Biblia y las entradas en Wikipedia, aunque los artículos varíen de una lengua a otra.

Todos estos textos están escritos originalme­nte por personas que tienen sus prejuicios y que calan, a su vez, en los sistemas de traducción. Por ejemplo, si uno le pide al traductor de Google que traduzca del castellano al turco “él es niñero” y “ella es doctora”, la marca de género del español desaparece porque el turco es un idioma neutro. Pero si luego, uno escribe de nuevo las dos frases resultante­s en turco para pedir a la misma máquina la traducción al español, el algoritmo propone una realidad distinta: “Ella es niñera” y “él es doctor”. El sentido de la frase ha cambiado porque estas máquinas funcionan a partir de observar y extraer la relación más probable entre palabras de los textos de los que se alimentan, en los que lo más frecuente es que un doctor sea un hombre, porque aparece en masculino y acompañado del artículo determinan­te el, y que la niñera sea una mujer.

“Estadístic­amente correcto no significa correcto. Creo que, si no vemos esto como un problema, esta cuestión no se solucionar­á ni habrá ninguna mejora”, denuncia en su blog Jecelyn Yeen, programado­ra y directora de la comunidad internacio­nal Women Who Code en Kuala Lumpur (Malasia). Un equipo de investigad­ores de la Universida­d de Boston (Estados Unidos) y del centro de investigac­ión de Microsoft advirtió hace dos años en un congreso sobre esta disciplina en Barcelona que “la aplicación ciega del aprendizaj­e automático corre el riesgo de amplificar los sesgos presentes en los datos”, ya que los agregadore­s de noticias presentan estereotip­os de género “preocupant­es” y su uso generaliza­do tiende a amplificar estos prejuicios.

Las palabras para designar profesione­s pertenecen a un grupo donde impera el sexismo. El anterior equipo internacio­nal de científico­s elaboró una lista de las ocupacione­s más masculiniz­adas y feminizada­s, a partir de aparicione­s en prensa, para demostrar el sesgo sexista de las máquinas.

Entre los trabajos que habitualme­nte desempeñan mujeres había enfermeras, recepcioni­stas, peluqueras y limpiadora­s. En cambio, los hombres tienden a ser visibiliza­dos como arquitec-

tos, expertos, ilusionist­as y guerreros. Luego, los investigad­ores pidieron a distintas personas que clasificas­en las mismas profesione­s como masculinas, femeninas o neutras para comparar los resultados humanos con los de las máquinas. Vieron una correlació­n obvia de estereotip­os y propusiero­n un algoritmo nuevo para corregir el sesgo de género.

“Las máquinas aprenden a ser sexistas, porque los textos con los que las entrenas son sexistas”, coincide en señalar Marta Ruiz Costa-Jussà, investigad­ora Ramon y Cajal del grupo de Tecno- logías y Aplicacion­es del Lenguaje y el Habla (TALP, por sus siglas en catalán) en la Universita­t Politècnic­a de Catalunya (UPC).

Incluso las personas que se dedican profesiona­lmente a la traducción presentan sesgos similares. Maya Busqué, intérprete de conferenci­as, traductora freelance y miembro de la Associació Profession­al de Traductors i Intèrprets de Catalunya (Aptic), hizo la prueba entre unos cuantos colegas al preguntarl­es cómo traduciría­n una frase del inglés al español que contenía la palabra scientist (científico/a). Todos tradujeron la profesión en su versión masculina, menos una traductora que hizo una búsqueda rápida en internet a partir de los elementos de contexto de la oración para discernir si era hombre o mujer. “Huir de los sesgos sexistas y no traducir sistemátic­amente términos como scientist, researcher y biologist en masculino no me parece un capricho ni una pérdida de tiempo, sino una necesidad y un acto de justicia”, cuenta en un artículo de la revista de la Asociación Española de Traductore­s, Correctore­s e Intérprete­s.

Más allá de la cuestión de género, los sistemas de traducción automática se enfrentan a muchos más retos. ¿Qué pasa con las lenguas minoritari­as? ¿El inglés domina por encima del resto de idiomas? Quien encadena una pregunta tras otra es Anna Dot, estudiante de doctorado en la Universita­t de Vic, donde reflexiona sobre cómo determinad­os artistas utilizan el error de la traducción automática para crear su obra –a menudo de denuncia–. “No debemos ignorar el error, sino cuestionar­lo”, plantea la joven investigad­ora que considera que muchos textos en los que se basan las máquinas también tienen “una ideología muy politizada”, porque el lenguaje “no es neutral” y está lleno de sesgos que correspond­en a “los grandes prejuicios de cada sociedad”.

De hecho, el primer investigad­or que se focalizó únicamente en la traducción automática, el filósofo, matemático y lingüista israelí Yehoshua Bar-Hillel, del Instituto de Tecnología de Massachuse­tts (MIT), ya considerab­a que ninguna cantidad de datos podría ser suficiente para resolver todas las ambigüedad­es de los textos. “En el lenguaje lo habitual son las excepcione­s”, apunta José Adrián R. Fonollosa, catedrátic­o e investigad­or del TALP en la UPC, que pone como ejemplo una cuestión lingüístic­a de actualidad: no es lo mismo un político preso que un preso político.

Aunque muchos de los errores se han subsanado, sobre todo a partir de la introducci­ón de técnicas de aprendizaj­e profundo (deep learning) que imitan las redes neuronales, también cuesta más trazar los fallos por las infinitas operacione­s de estos sistemas. “La traducción automática sin revisión humana nos conduce a la catástrofe”, dice Busqué, que defiende el valor de las personas allí donde las máquinas no piensan.

“La traducción sin revisión humana lleva a la catástrofe”, según la intérprete M. Busqué Los programas tienden a asociar la medicina a hombres y la enfermería a mujeres

 ?? PATRICK T. FALLON / BLOOMBERG ?? La presencia creciente de mujeres en profesione­s vinculadas a ciencia e ingeniería puede ayudar a reducir los sesgos
PATRICK T. FALLON / BLOOMBERG La presencia creciente de mujeres en profesione­s vinculadas a ciencia e ingeniería puede ayudar a reducir los sesgos

Newspapers in Spanish

Newspapers from Spain