La Vanguardia (Català-1ª edició)
AAllggoorriittmmooss ddee IIAA bbaajjoo ccoonnttrrooll
Generamos miles de millones de datos al día que sirven para entrenar y alimentar los algoritmos de inteligencia artificial (IA), una tecnología que nos brinda grandes oportunidades pero que también genera muchas incertidumbres. ¿Tienen ética los algoritmos? ¿Nos controlan? ¿Podrán llegar a sustituir a los humanos en la toma de decisiones? Idoia Salazar, fundadora y presidenta del Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA), participó este mes de septiembre en el debate La ética de los algoritmos, que se celebró en el marco de un ciclo organizado por el Observatorio Social de la Fundació ”la Caixa”, en CaixaForum Macaya.
Salazar considera que preguntar si los algoritmos tienen ética es como decir si la tienen unas gafas, “al final, se trata de un software, un programa informático al que no se le pueden atribuir cualidades humanas. La ética es la capacidad que tienen los seres humanos de discernir entre el bien y el mal, de modo que el que debe ser ético es quien está desarrollando los algoritmos de IA con determinadas características o para un fin específico”, afirma.
La digitalización no tiene vuelta atrás, los datos son cada vez más numerosos y los algoritmos están en nuestro día a día. La firma de software en la nube DOMO estima que cada persona en la Tierra genera 1,7MB de datos por segundo. Y en este contexto, “la IA no es una opción para las empresas y gobiernos, es un deber”, asegura la experta que añade: “La gestión de datos a nivel masivo puede ayudarnos muchísimo en la predicción de catástrofes, de futuras pandemias o de fenómenos relativos al cambio climático. Esa posibilidad de crear patrones a futuro que tienen los sistemas de IA puede salvar vidas”. Además, “cada día el ser humano genera más datos a su alrededor y nuestro cerebro es incapaz de procesarlos con suficiente eficiencia. Así pues, tal y como hemos hecho a lo largo de la historia, creamos distintos inventos tecnológicos que nos ayudan a mejorar y que hay que saber utilizar bien. Esta es la cuestión”.
Y si la ética de los algoritmos la aportan sus creadores, ¿cómo generarlos sin sesgos? Salazar recuerda que Google o Amazon, “que supuestamente saben mucho sobre este tipo de cuestiones”, también cometieron fallos a la hora de usar los datos que tenían para entrenar sus algoritmos de IA. En el caso de Amazon, usaron uno para reclutar a nuevos empleados para el puesto de desarrollador de software. “Durante un par de años, dejaron que el algoritmo tomara la decisión de quién entraba o no y siempre escogía a hombres de raza blanca, de 30 a 40 años. No se habían dado cuenta. Dejaron al algoritmo tomar sus propias decisiones sin supervisión. Había sido de manera inconsciente”. El problema en este caso fueron los datos que se usaron en el entrenamiento del algoritmo. “Es tu labor como data scientist darle diversidad, diferentes puntos de vista y perspectivas”, asegura Salazar. Otra forma de construir algoritmos más éticos es con equipos multidisciplinares, y “eliminando datos de sexo, edad, raza incluso lugar de residencia porque muchas veces esto está relacionado con la condición social”. De hecho, ya existen herramientas específicas open source que han desarrollado distintas compañías, entre ellas IBM, para que las empresas que usan IA puedan diagnosticar si realmente los datos de entrenamiento que utilizan en sus algoritmos tienen o no problemas.
Caja negra
Otra incógnita de los algoritmos de IA es que sabemos qué datos introducimos y conocemos el resultado, pero no el proceso que han hecho para llegar a la conclusión. Son, en este sentido, como una caja negra. “La explicabilidad es otro gran reto que tenemos”, defiende Salazar, Doctora en la Universidad CEU San Pablo, especializada en Ética y Regulación en Inteligencia Artificial. “Está pasando mucho con los algoritmos más potentes que hay que son los de deep learning, sabemos que lo hacen muy bien, las conclusiones a las que llegan son muy buenas, pero no conocemos la lógica, el razonamiento que han seguido para tomar una decisión”. Una decisión que puede tener consecuencias: “Si uso un algoritmo de IA para el diagnóstico de un paciente, me van a