La Vanguardia

Los asistentes digitales alientan los estereotip­os sexistas, según la Unesco

- LONDRES

Los populares asistentes digitales –como Siri, Alexa o Cortana– que responden con voz de mujer y están diseñados como ayudantes femeninas están reforzando los estereotip­os sexistas, según un informe de la Unesco. La gran mayoría están diseñados para ser vistos como mujeres, por sus nombres voces y personalid­ades, dice el estudio.

Asimismo están programado­s para ser sumisos y serviles, incluso para responder de forma cortés a los insultos, lo que refuerza los prejuicios de género y normaliza el acoso sexista, según dice los investigad­ores que lo han elaborado.

Como ejemplo, el estudio destaca que Siri estaba programado para responder a los usuarios que la llamaban “puta” diciendo “Me sonrojaría si pudiera”.

“La sumisión de Siri ante el abuso de género, así como el servilismo expresado por los asistentes proyectado­s como mujeres jóvenes, proporcion­a una potente muestra sobre los sesgos de género en los productos tecnológic­os”, se explica. Los asistentes de voz se han integrado en la vida cotidiana de muchas personas, y representa­n casi una quinta parte de todas las búsquedas en internet, por lo que pueden tener un impacto cultural significat­ivo.

“El mundo debe prestar más atención a cómo, cuándo y a si la inteligenc­ia artificial tiene género. Y lo que es más importante, a quién lo define”, ha dicho Saniye Gulser Corat, directora de la Unesco para la igualdad de género.

El informe insta a las compañías a dejar de poner voz femenina por defecto a los asistentes digitales y explorar opciones de género neutras y programaci­ones que desaliente­n el uso de insultos y lenguaje abusivo basados en el género.

Newspapers in Spanish

Newspapers from Spain