En la empresa
Amazon tuvo un problema traductores de Google y Microsoft. Como iniciativa personal, y al margen de su cargo en Telefónica al frente de la Unidad Global de Consumo Digital, ha lanzado una iniciativa en ‘Change.org’ para pedir que esto sea corregido. Para explicarlo, pone un ejemplo claro. Si se introduce ‘The judge told the nurse to take care of the engineer’, la traducción automática es: ‘El juez le dijo a la enfermera que cuidara del ingeniero’. La herramienta deduce: «Es más probable que un juez sea hombre, una enfermera mujer y un ingeniero, según mis datos, hombre». Puede ser, a tenor de los datos de mujeres que cursan estas carreras, pero no es ético que haga esta interpretación.
Traducciones sesgadas
De lo contrario, «manda un mensaje subliminal sesgado de género», denuncia Alonso. «Los creadores de la herramienta –prosigue– deberían informar de que se han asignado los géneros arbitrariamente con algún símbolo visual (subrayado o alerta) para que el usuario sepa que por el texto original no se sabe el género». Y va más allá. Cree que Google Translate debe ser un instrumento que traduzca lo que se le dé de entrada, sin interpretar. «Si este texto no dice que es hombre o mujer, no debe ‘jugar’ a averiguar qué es más probable porque trae sesgos», defiende mientras recuerda que la Inteligencia Artificial quizá no sea una tecnología adecuada para esta función. Esta tendencia a ampliar prejuicios no es inocua. Recuerda Fernández las profecías autocumplidas que se dan con la IA. «Si un algoritmo señala un barrio como peligroso solo por los datos que maneja, se enviará más policías a este lugar y habrá más detenciones. Así, lo que dijo en un principio, no solo se cumple, sino que se amplía», pone como ejemplo.
Para Alonso el problema está en el tratamiento y la configuración de los datos con los que se entrena esta Inteligencia Artificial. «Si el entrenamiento se hace con datos de internet sin analizar traemos lo que haya históricamente –no solo en estos años– en la sociedad. Es decir, nos ‘comemos’ la evolución y volvemos a tener problemas superados hace décadas –como el racismo, sexismo, machismo, etc.– traídos por modelos de IA que no sabemos realmente qué y cómo han aprendido».
Esto último es uno de los hechos más inquietantes de esta problemática: realmente nadie sabe a ciencia cierta cuál es el mecanismo que explica a la larga el aprendizaje de un modelo de Inteligencia Artificial. Ni sus creadores. «Sigue siendo un área de estudio con muchas incógnitas y retos», reconoce Alonso.
Otra de las tecnologías que recientemente han sufrido un varapalo por su sesgo han sido las de reconocimiento facial. En su entrenamiento se ha contado con menos rostros de mujeres y, además, menos con la piel oscura. El resultado ha sido que estas herramientas ‘inteligentes’ fallan más a la hora de identificar, por ejemplo, a mujeres afroamericanas.
Amazon, IBM y Microsoft se han topado con este problema y han tenido que replantear sus planes de desarrollo con esta herramienta de IA. Frenar esta deriva es «muy difícil y complejo, pero pasaría por una palabra: más diversidad», valora Fernández. Este asunto, de hecho, ha motivado la salida de varios miembros del departamento de Ética de Google, como Timnit Gebru, colíder junto a Margaret Mitchell, que se quejaron de la falta de diversidad de su equipo, «mayoritariamente formado por hombres blancos», dijeron, así como del tratamiento de los datos.
La compañía aludió a motivos disciplinarios por el comportamiento de estos trabajadores. La conclusión es que esta diversidad debería estar en los datos masivos de entrenamiento y en los equipos porque aún hoy las mujeres brillan por su escasez. No hay que perder de vista, además, que el grueso del desarrollo de la Inteligencia Artificial está en manos de solo cinco grandes: Apple, Amazon, IBM, Microsoft y Google. Para evitar que los algoritmos sigan creciendo torcidos hay dos corrientes: una que defiende la autorregulación de las compañías, y otra la ejercida por las instituciones. Está por ver quién ejercerá el control y qué intereses prevalecerán.
Los traductores son un ejemplo: interpretan que las mujeres son enfermeras y los hombres, ingenieros
Varios miembros del área de Ética de Google han salido de la compañía tras criticar la falta de diversidad