¿Es Google machista? El género de los algoritmos
Las fórmulas matemáticas que dirigen la Inteligencia Artificial replican y amplían los clichés de género aprendidos del análisis masivo e indiscriminado de datos
Tiene un amigo invisible que empieza a darle consejos y a tomar decisiones que le afectan sin que quizá sea del todo consciente. ¿Lo sabía? A veces, su intervención no va más allá de sugerirle cada noche que vea una u otra serie en su plataforma favorita. Pero hay ocasiones en las que podría descartar su currículo en el proceso de selección de una gran empresa al considerar que no es adecuado para el puesto. Este compañero, sin rostro ni nombre, es la Inteligencia Artificial (IA), una tecnología que se ha instalado sin hacer ruido en la vida cotidiana de una sociedad cada vez más digital.
Sin hacer ruido... o casi, porque lo cierto es que su comportamiento, desarrollado a base de analizar ingentes cantidades de datos a través de algoritmos matemáticos, empieza a dar que hablar. Las alarmas han saltado cuando se ha visto que toma decisiones viciadas por prejuicios de género e, incluso, raciales. Algo que puede llegar a traducirse en una discriminación de minorías en distintos aspectos de la vida, si se tiene en cuenta todos aquellos que ya están ‘tocados’ por estos algoritmos.
No son pocos. De hecho, a estas alturas, resulta ingenuo pensar que esta tecnología nada tiene que ver con nuestro mundo. Tanto, como no preguntarse: ¿quién está entrenando a esta nueva Inteligencia?, ¿con qué objetivo?, ¿cómo está aprendiendo y cómo alcanza sus conclusiones? Algunas respuestas son conocidas; otras, por desgracia, son tan crípticas como los propios algoritmos matemáticos por los que se rige.
Cuestión de perspectiva
Una de las claves para entender por qué un algoritmo puede presentar un sesgo de género y llegar a conclusiones machistas está en su propio funcionamiento. Al estar basado en analizar información para alcanzar una conclusión y resolver los problemas que se le planteen, si los datos que chequean están viciados de origen los resultados replicarán (y ampliarán) esta tara. Esto puede suceder por dos motivos: porque la recopilación indiscriminada y sin tratamiento que hace la máquina de los datos masivos arrojados por infinitos usuarios de la red y sus aplicaciones reflejen ese sesgo impregnado en la propia sociedad; o porque en la selección de esta información y la definición de modelos diseñados por los programadores ya estén sesgadas de origen, al no haberse tenido en cuenta la perspectiva de género.
En Ciencia, esto no es nuevo. Lorena Fernández, directora de Identidad Digital de la Universidad de Deusto y experta en cuestiones de Género y Tecnología, recuerda un caso paradigmático con los maniquíes que se utilizan para testar el impacto que sufre un humano en un accidente de tráfico: «Los Crash Test Dummies se hacían con modelos que solo replicaban el físico masculino. Por ejemplo, no contemplaban que el
Es el porcentaje total de cantidaturas de trabajo a puestos vinculados con la Inteligencia Artificial que corresponden a hombres en EE. UU., según recoge el informe publicado por el Ministerio de Igualdad español ‘Mujeres y digitalización, de la brecha a los algoritmos’