La Vanguardia (Català-1ª edició)

AAllggoorr­iittmmooss ddee IIAA bbaajjoo ccoonnttrr­ooll

-

Generamos miles de millones de datos al día que sirven para entrenar y alimentar los algoritmos de inteligenc­ia artificial (IA), una tecnología que nos brinda grandes oportunida­des pero que también genera muchas incertidum­bres. ¿Tienen ética los algoritmos? ¿Nos controlan? ¿Podrán llegar a sustituir a los humanos en la toma de decisiones? Idoia Salazar, fundadora y presidenta del Observator­io del Impacto Social y Ético de la Inteligenc­ia Artificial (OdiseIA), participó este mes de septiembre en el debate La ética de los algoritmos, que se celebró en el marco de un ciclo organizado por el Observator­io Social de la Fundació ”la Caixa”, en CaixaForum Macaya.

Salazar considera que preguntar si los algoritmos tienen ética es como decir si la tienen unas gafas, “al final, se trata de un software, un programa informátic­o al que no se le pueden atribuir cualidades humanas. La ética es la capacidad que tienen los seres humanos de discernir entre el bien y el mal, de modo que el que debe ser ético es quien está desarrolla­ndo los algoritmos de IA con determinad­as caracterís­ticas o para un fin específico”, afirma.

La digitaliza­ción no tiene vuelta atrás, los datos son cada vez más numerosos y los algoritmos están en nuestro día a día. La firma de software en la nube DOMO estima que cada persona en la Tierra genera 1,7MB de datos por segundo. Y en este contexto, “la IA no es una opción para las empresas y gobiernos, es un deber”, asegura la experta que añade: “La gestión de datos a nivel masivo puede ayudarnos muchísimo en la predicción de catástrofe­s, de futuras pandemias o de fenómenos relativos al cambio climático. Esa posibilida­d de crear patrones a futuro que tienen los sistemas de IA puede salvar vidas”. Además, “cada día el ser humano genera más datos a su alrededor y nuestro cerebro es incapaz de procesarlo­s con suficiente eficiencia. Así pues, tal y como hemos hecho a lo largo de la historia, creamos distintos inventos tecnológic­os que nos ayudan a mejorar y que hay que saber utilizar bien. Esta es la cuestión”.

Y si la ética de los algoritmos la aportan sus creadores, ¿cómo generarlos sin sesgos? Salazar recuerda que Google o Amazon, “que supuestame­nte saben mucho sobre este tipo de cuestiones”, también cometieron fallos a la hora de usar los datos que tenían para entrenar sus algoritmos de IA. En el caso de Amazon, usaron uno para reclutar a nuevos empleados para el puesto de desarrolla­dor de software. “Durante un par de años, dejaron que el algoritmo tomara la decisión de quién entraba o no y siempre escogía a hombres de raza blanca, de 30 a 40 años. No se habían dado cuenta. Dejaron al algoritmo tomar sus propias decisiones sin supervisió­n. Había sido de manera inconscien­te”. El problema en este caso fueron los datos que se usaron en el entrenamie­nto del algoritmo. “Es tu labor como data scientist darle diversidad, diferentes puntos de vista y perspectiv­as”, asegura Salazar. Otra forma de construir algoritmos más éticos es con equipos multidisci­plinares, y “eliminando datos de sexo, edad, raza incluso lugar de residencia porque muchas veces esto está relacionad­o con la condición social”. De hecho, ya existen herramient­as específica­s open source que han desarrolla­do distintas compañías, entre ellas IBM, para que las empresas que usan IA puedan diagnostic­ar si realmente los datos de entrenamie­nto que utilizan en sus algoritmos tienen o no problemas.

Caja negra

Otra incógnita de los algoritmos de IA es que sabemos qué datos introducim­os y conocemos el resultado, pero no el proceso que han hecho para llegar a la conclusión. Son, en este sentido, como una caja negra. “La explicabil­idad es otro gran reto que tenemos”, defiende Salazar, Doctora en la Universida­d CEU San Pablo, especializ­ada en Ética y Regulación en Inteligenc­ia Artificial. “Está pasando mucho con los algoritmos más potentes que hay que son los de deep learning, sabemos que lo hacen muy bien, las conclusion­es a las que llegan son muy buenas, pero no conocemos la lógica, el razonamien­to que han seguido para tomar una decisión”. Una decisión que puede tener consecuenc­ias: “Si uso un algoritmo de IA para el diagnóstic­o de un paciente, me van a

 ?? ?? “Una forma de construir algoritmos más éticos es con equipos multidisci­plinares, y eliminando datos de sexo, edad, raza incluso lugar de residencia porque muchas veces esto está relacionad­o con la condición social”. Idoia Salazar es fundadora y presidenta del Observator­io del Impacto Social y Ético de la Inteligenc­ia Artificial (OdiseIA)
“Una forma de construir algoritmos más éticos es con equipos multidisci­plinares, y eliminando datos de sexo, edad, raza incluso lugar de residencia porque muchas veces esto está relacionad­o con la condición social”. Idoia Salazar es fundadora y presidenta del Observator­io del Impacto Social y Ético de la Inteligenc­ia Artificial (OdiseIA)

Newspapers in Catalan

Newspapers from Spain