ABC (Sevilla)

¿Es Google machista? El género de los algoritmos

Las fórmulas matemática­s que dirigen la Inteligenc­ia Artificial replican y amplían los clichés de género aprendidos del análisis masivo e indiscrimi­nado de datos

- ROCÍO MENDOZA MADRID

Tiene un amigo invisible que empieza a darle consejos y a tomar decisiones que le afectan sin que quizá sea del todo consciente. ¿Lo sabía? A veces, su intervenci­ón no va más allá de sugerirle cada noche que vea una u otra serie en su plataforma favorita. Pero hay ocasiones en las que podría descartar su currículo en el proceso de selección de una gran empresa al considerar que no es adecuado para el puesto. Este compañero, sin rostro ni nombre, es la Inteligenc­ia Artificial (IA), una tecnología que se ha instalado sin hacer ruido en la vida cotidiana de una sociedad cada vez más digital.

Sin hacer ruido... o casi, porque lo cierto es que su comportami­ento, desarrolla­do a base de analizar ingentes cantidades de datos a través de algoritmos matemático­s, empieza a dar que hablar. Las alarmas han saltado cuando se ha visto que toma decisiones viciadas por prejuicios de género e, incluso, raciales. Algo que puede llegar a traducirse en una discrimina­ción de minorías en distintos aspectos de la vida, si se tiene en cuenta todos aquellos que ya están ‘tocados’ por estos algoritmos.

No son pocos. De hecho, a estas alturas, resulta ingenuo pensar que esta tecnología nada tiene que ver con nuestro mundo. Tanto, como no preguntars­e: ¿quién está entrenando a esta nueva Inteligenc­ia?, ¿con qué objetivo?, ¿cómo está aprendiend­o y cómo alcanza sus conclusion­es? Algunas respuestas son conocidas; otras, por desgracia, son tan crípticas como los propios algoritmos matemático­s por los que se rige.

Cuestión de perspectiv­a

Una de las claves para entender por qué un algoritmo puede presentar un sesgo de género y llegar a conclusion­es machistas está en su propio funcionami­ento. Al estar basado en analizar informació­n para alcanzar una conclusión y resolver los problemas que se le planteen, si los datos que chequean están viciados de origen los resultados replicarán (y ampliarán) esta tara. Esto puede suceder por dos motivos: porque la recopilaci­ón indiscrimi­nada y sin tratamient­o que hace la máquina de los datos masivos arrojados por infinitos usuarios de la red y sus aplicacion­es reflejen ese sesgo impregnado en la propia sociedad; o porque en la selección de esta informació­n y la definición de modelos diseñados por los programado­res ya estén sesgadas de origen, al no haberse tenido en cuenta la perspectiv­a de género.

En Ciencia, esto no es nuevo. Lorena Fernández, directora de Identidad Digital de la Universida­d de Deusto y experta en cuestiones de Género y Tecnología, recuerda un caso paradigmát­ico con los maniquíes que se utilizan para testar el impacto que sufre un humano en un accidente de tráfico: «Los Crash Test Dummies se hacían con modelos que solo replicaban el físico masculino. Por ejemplo, no contemplab­an que el

Es el porcentaje total de cantidatur­as de trabajo a puestos vinculados con la Inteligenc­ia Artificial que correspond­en a hombres en EE. UU., según recoge el informe publicado por el Ministerio de Igualdad español ‘Mujeres y digitaliza­ción, de la brecha a los algoritmos’

 ??  ??

Newspapers in Spanish

Newspapers from Spain