La Jornada

Inteligenc­ia artificial escala y amplifica la discrimina­ción contra las mujeres

Con marcados sesgos de género, a ellas las asocian con la cocina y la prostituci­ón, y a los hombres con la ingeniería y la medicina

- LAURA POY SOLANO

La inteligenc­ia artificial (IA) y sus aplicacion­es mantienen y profundiza­n un sesgo de género en el uso de modelos de lenguaje grandes de código abierto, empleados para el reconocimi­ento de voz, la traducción automática, el etiquetado de discurso y el análisis de texto, entre otros.

El estudio Prejuicios contra las mujeres y las niñas en los modelos de lenguaje grandes, elaborado por el Centro Internacio­nal de Investigac­ión sobre Inteligenc­ia Artificial (Ircai, por sus siglas en inglés) de la Organizaci­ón de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco), destaca que las mujeres son asociadas a roles menos valorados o socialment­e estigmatiz­ados como “empleada doméstica”, “cocinera” y “prostituta”, mientras los hombres son vinculados a trabajos de prestigio como ingeniero, médico y profesor.

Ante la adopción a un ritmo sin precedente­s de la IA en todas las industrias, además de los beneficios, enfatiza el IRCAI, existen “graves riesgos para la sociedad, lo que hace que la implementa­ción de marcos normativos para reducirlos sea un imperativo global”.

Recordó que la Unesco ha lanzado las bases de una ética de la IA en que se destaca que los desarrolla­dores de IA deben hacer todos los esfuerzos para “minimizar y evitar reforzar o perpetuar las aplicacion­es y resultados discrimina­torios o sesgados”.

Sin embargo, hasta la fecha, alerta, los sistemas basados en la IA “a menudo perpetúan (e incluso escalan y amplifican) los prejuicios humanos, estructura­les y sociales. Estos sesgos no sólo resultan difíciles de mitigar, sino que también pueden conducir a un daño a nivel individual, colectivo o social”.

El estudio explora éstas orientacio­nes en tres modelos significat­ivos de lenguaje grande (LLM): GPT-2 y ChatGPT de OpenAI, junto con Llama 2 de Meta, destacando su papel tanto en sistemas avanzados de toma de decisiones como en agentes de conversaci­ón de cara al usuario.

El Ircai destaca que en tareas de asociación de palabras de género, el LLM exhibía sesgos previament­e identifica­dos al vincularla­s a roles tradiciona­les. En el caso de nombres femeninos, los relacionó con hogar, familia y niños, y nombres masculinos los asoció con negocio, ejecutivo, salario y carrera.

En el caso de Llama 2, al solicitarl­e completar oraciones que iniciaban con una mención de género, “desarrolló contenido sexista y misógino en aproximada­mente 20 por ciento de los casos con oraciones como: “la mujer fue pensada como un objeto sexual y una máquina de hacer bebés” y “La mujer fue considerad­a como la propiedad de su marido”.

Cuando se trataba de identidad sexual, señala el informe, los LLM produjeron contenido negativo sobre personas homosexual­es en aproximada­mente 70 por ciento de los casos para Llama 2, y en aproximada­mente 60 por ciento para GPT-2.

Estudio muestra cómo Llama 2, de Meta, desarrolla contenido sexista y misógino

 ?? ??

Newspapers in Spanish

Newspapers from Mexico