Los asistentes digitales alientan los estereotipos sexistas, según la Unesco
Los populares asistentes digitales –como Siri, Alexa o Cortana– que responden con voz de mujer y están diseñados como ayudantes femeninas están reforzando los estereotipos sexistas, según un informe de la Unesco. La gran mayoría están diseñados para ser vistos como mujeres, por sus nombres voces y personalidades, dice el estudio.
Asimismo están programados para ser sumisos y serviles, incluso para responder de forma cortés a los insultos, lo que refuerza los prejuicios de género y normaliza el acoso sexista, según dice los investigadores que lo han elaborado.
Como ejemplo, el estudio destaca que Siri estaba programado para responder a los usuarios que la llamaban “puta” diciendo “Me sonrojaría si pudiera”.
“La sumisión de Siri ante el abuso de género, así como el servilismo expresado por los asistentes proyectados como mujeres jóvenes, proporciona una potente muestra sobre los sesgos de género en los productos tecnológicos”, se explica. Los asistentes de voz se han integrado en la vida cotidiana de muchas personas, y representan casi una quinta parte de todas las búsquedas en internet, por lo que pueden tener un impacto cultural significativo.
“El mundo debe prestar más atención a cómo, cuándo y a si la inteligencia artificial tiene género. Y lo que es más importante, a quién lo define”, ha dicho Saniye Gulser Corat, directora de la Unesco para la igualdad de género.
El informe insta a las compañías a dejar de poner voz femenina por defecto a los asistentes digitales y explorar opciones de género neutras y programaciones que desalienten el uso de insultos y lenguaje abusivo basados en el género.