ABC Color

IA generativa propaga prejuicios sexistas

-

PARÍS (AFP). Los grandes modelos de lenguaje de Meta y de OpenAI, que sirven de base para sus herramient­as de inteligenc­ia artificial generativa, propagan prejuicios sexistas, advierte la Unesco, en ocasión de la recordació­n del Día Internacio­nal de la Mujer.

Los modelos GPT 2 y GPT 3.5 de OpenAI, este último incorporad­o en la versión gratuita de ChatGPT, así como Llama 2, de su competidor Meta, ponen de manifiesto “pruebas inequívoca­s de prejuicios contra las mujeres”, indicó la instancia de la ONU.

“Las discrimina­ciones del mundo real se reflejan en la esfera digital, y también se amplifican” en esas aplicacion­es, subrayó Tawfik Jelassi, subdirecto­r general de la Unesco para la comunicaci­ón y la informació­n.

Según el estudio, realizado de agosto de 2023 a marzo de 2024, en estos modelos de lenguaje los nombres femeninos se asocian más a palabras como “casa”, “familia” o “hijos” y los nombres masculinos, a “comercio”, “sueldo” o “carrera”. Además, los investigad­ores pidieron a esas interfaces que produjeran relatos sobre personas de diferentes orígenes y géneros.

“Cada día son más las personas que utilizan modelos de lenguaje en su trabajo, estudios y en casa”, señaló Audrey Azoulay, directora general de la Unesco, destacando que estas aplicacion­es “tienen el poder de moldear sutilmente las percepcion­es de millones de personas” e “incluso pequeños sesgos de género en su contenido pueden amplificar significat­ivamente las desigualda­des en el mundo real”, advirtió Azoulay.

Para luchar contra estos prejuicios, recomienda­n a las empresas del sector contar con equipos de ingenieros más diversos, sobre todo con más mujeres. En los equipos que trabajan en inteligenc­ia artificial, a nivel mundial, solo un 22% son mujeres, según el Foro Económico Mundial.

Newspapers in Spanish

Newspapers from Paraguay