IA generativa propaga prejuicios sexistas
PARÍS (AFP). Los grandes modelos de lenguaje de Meta y de OpenAI, que sirven de base para sus herramientas de inteligencia artificial generativa, propagan prejuicios sexistas, advierte la Unesco, en ocasión de la recordación del Día Internacional de la Mujer.
Los modelos GPT 2 y GPT 3.5 de OpenAI, este último incorporado en la versión gratuita de ChatGPT, así como Llama 2, de su competidor Meta, ponen de manifiesto “pruebas inequívocas de prejuicios contra las mujeres”, indicó la instancia de la ONU.
“Las discriminaciones del mundo real se reflejan en la esfera digital, y también se amplifican” en esas aplicaciones, subrayó Tawfik Jelassi, subdirector general de la Unesco para la comunicación y la información.
Según el estudio, realizado de agosto de 2023 a marzo de 2024, en estos modelos de lenguaje los nombres femeninos se asocian más a palabras como “casa”, “familia” o “hijos” y los nombres masculinos, a “comercio”, “sueldo” o “carrera”. Además, los investigadores pidieron a esas interfaces que produjeran relatos sobre personas de diferentes orígenes y géneros.
“Cada día son más las personas que utilizan modelos de lenguaje en su trabajo, estudios y en casa”, señaló Audrey Azoulay, directora general de la Unesco, destacando que estas aplicaciones “tienen el poder de moldear sutilmente las percepciones de millones de personas” e “incluso pequeños sesgos de género en su contenido pueden amplificar significativamente las desigualdades en el mundo real”, advirtió Azoulay.
Para luchar contra estos prejuicios, recomiendan a las empresas del sector contar con equipos de ingenieros más diversos, sobre todo con más mujeres. En los equipos que trabajan en inteligencia artificial, a nivel mundial, solo un 22% son mujeres, según el Foro Económico Mundial.