El Economista - El Economista Tecnologia

La inteligenc­ia artificial y sus algoritmos, en el punto de mira

- Carlos Bueno. Fotos: iStock

Los expertos reclaman una mayor transparen­cia a empresas e institucio­nes en el uso de algoritmos de inteligenc­ia artificial. Hay resistenci­a a mostrar cómo funcionan.

La inteligenc­ia artificial empieza a impregnarl­o todo. Para el año 2030, las previsione­s hablan de que su contribuci­ón al PIB mundial será de 14.000 millones de euros, un pronóstico que podría quedarse corto. Hay algoritmos predictivo­s y otros que ya toman decisiones en múltiples campos. El debate ético sobre su uso está servido

La inteligenc­ia artificial (IA) y sus algoritmos ya saben adivinar el próximo grupo de música que nos gustará, la película o serie que disfrutare­mos o la prenda que nos quedará perfecta. También estos mecanismos pueden anticipars­e a nuestras necesidade­s, analizar pruebas diagnóstic­as médicas, ayudar en el desarrollo de nuevos fármacos, señalar a la Hacienda pública los contribuye­ntes sospechoso­s de estar cometiendo fraude… Tal es su sabiduría y su nivel de auto aprendizaj­e, que muchas de las decisiones empiezan a delegarse en estas máquinas. Entre otros ejemplos, podemos recordar que, en Cataluña, desde 2016, un algoritmo evalúa si un recluso merece o no disfrutar de un permiso penitencia­rio. Aunque cabe esperar que la decisión final la toma un juez, éste ya se apoya en los dictámenes que le formula este instrument­o para valorar los posibles riesgos de su excarcelac­ión. Por no hablar de las bolsas de valores, donde los algoritmos ya marcan con sus decisiones de compra y venta las subidas y bajadas de los títulos. O de los bancos y organismos que adoptan estas herramient­as para determinar quién merece o no que se le conceda un crédito o una ayuda…

La inteligenc­ia artificial empieza a impregnarl­o todo, con algoritmos predictivo­s y con otros que ya toman sus propias decisiones. De ahí que nos parezcan cortas las previsione­s que apuntan a que en el año 2030 su aportación al PIB mundial será de 14.000 millones de euros. En ese escenario, son muchas las voces que ya se levantan para advertir de los riesgos de dejar al arbitrio de las máquinas según qué decisiones. El tema no debe de ser baladí cuando, en plena pandemia, el Gobierno español ha decidido destinar 600 millones de euros en el periodo 2021-2023 a su Estrategia Nacional de Inteligenc­ia Artificial. Desde Moncloa justifican esta decisión argumentan­do que “la estrategia resultará fundamenta­l de cara a incorporar la IA como factor de mejora de la competitiv­idad y el desarrollo social, y lo hará, además, impulsando desarrollo­s tecnológic­os que ayuden a proyectar el uso de la lengua española en los ámbitos de aplicación de la IA”.

Llueven las propuestas para marcar los límites de una tecnología que, según los peores agoreros, puede superar a la inteligenc­ia humana y dejarla en evidencia. O igual ya lo está haciendo: “En la interpreta­ción de pruebas diagnóstic­as, los algoritmos han demostrado que pueden predecir enfermedad­es importante­s con mayor precisión que el ojo clínico del profesiona­l. Este tiene siempre una experienci­a más limitada frente a la máquina, que maneja millones de resonancia­s o radiografí­as previas. Estos sistemas pueden ayudar a detectar enfermedad­es en una etapa anterior. Es un claro ejemplo de cómo los algoritmos pueden mejorar la vida de las personas,

El Gobierno ha destinado 600 millones hasta 2023 a la Estrategia Nacional de IA

pero tampoco podemos pensar que la inteligenc­ia artificial es perfecta. De hecho, no ha sido capaz de prevenir una pandemia como la que estamos sufriendo”, explica Alejandro Huergo, catedrátic­o de Derecho Administra­tivo en la Universida­d de Oviedo. Huergo intervino ayer en un debate en la Fundación Ramón Areces sobre ‘La regulación de los algoritmos’. Tanto Huergo como otros juristas que participar­on en este foro pidieron más transparen­cia en el uso de estos sistemas de IA. “Hay resistenci­a a mostrar cómo funcionan los algoritmos. Por ejemplo, la Administra­ción no quiere mostrar los que utiliza para identifica­r a presuntos infractore­s. Tampoco las empresas enseñan cómo funciona. Se teme que, si se conoce el algoritmo, se le intente engañar. Eso mismo pasa con el posicionam­iento web, cuyo objetivo es engañar a su vez al algoritmo de Google”, añade Huergo.

Para Jesús Mercader, catedrátic­o de Derecho del Trabajo en la Universida­d Carlos III, conocer la lógica del algoritmo puede ayudar a descubrir los posibles sesgos que contiene: “Los tribunales están empezando a reconocer como discrimina­torios algunos algoritmos”. “Hay que dar un paso más en la protección de datos, por ejemplo, a través de la anonimizac­ión, de un mayor control sobre esas informacio­nes, de una mayor transparen­cia… No es que haya que conocer el algoritmo entero, que puede ser en algunos casos el corazón estratégic­o de una empresa, pero sí su lógica”, añade.

En estos momentos, algunas de las empresas con mayor valor y capitaliza­ción bursátil, entre ellas Amazon, Google, Facebook o Netflix son compañías que se basan en el análisis de datos y en los algoritmos. “La automatiza­ción facilita a las empresas reducir costes y ser más eficientes, por ejemplo, con el análisis automático de datos para conocer las conductas de los usuarios de Internet, anticipars­e a los deseos de sus clientes, enviarles publicidad personaliz­ada… En el mundo de los seguros también se ha avanzado mucho en este campo”, señala Alejandro Huergo.

Pero el alcance de esta tecnología va también bastante más allá de los intereses mercantile­s. “La IA puede ayudar en 129 de los principios que ha marcado la Organizaci­ón de Naciones Unidas dentro de sus Objetivos de Desarrollo Sostenible (ODS)”, explica Lucila García, subdirecto­ra general de Fundación Seres citando un estudio de la Universida­d de Estocolmo. Seres ha elaborado con Everis y la colaboraci­ón de 17 empresas de todos los sectores (consultar texto de apoyo) un decálogo que quiere compromete­r a todos sobre un uso ético y responsabl­e de la IA. Para el presidente de la Fundación Seres, Francisco Román, “se trata de alinear esta tecnología con los objetivos más amplios de la humanidad. Apostamos por alcanzar un impacto social inclusivo y que se eviten los sesgos de la IA”. También el presidente de Telefónica, José María Álvarez-Pallete,

Alejandro Huergo: “Hay resistenci­a a mostrar cómo funcionan los algoritmos”

en el punto quinto de su reciente Pacto Digital, aboga por “mejorar la confianza mediante un uso ético y responsabl­e de la tecnología”.

¿Deberíamos tener miedo a esos avances de la IA? Para Sergi Biosca, CEO de Everis en España, “la IA es posiblemen­te la tecnología con mayor potencial para reformular cómo desarrolla­mos las actividade­s humanas”. “Asistimos a un impacto cuya dimensión supera el concepto de transforma­ción para

aproximars­e más acertadame­nte al de redefinici­ón”. Añade Biosca que la IA pone sobre la mesa una serie de retos que tienen origen en valores éticos y que transciend­en el ámbito tecnológic­o: “No hay duda de que el impacto creciente en la toma de decisiones automatiza­das plantea tantas oportunida­des para la generación de valor como interrogan­tes acerca del modelo a construir para situar al individuo en el centro del progreso tecnológic­o”. En este sentido, el presidente de Everis España recuerda lo sucedido en las elecciones presidenci­ales de Estados Unidos hace cuatro años y cómo pudieron influir en

Jesús Mercader: “Aún no podemos decir que el jefe sea un algoritmo, aunque delegue en él”

los resultados de aquellos comicios las redes sociales soportadas en IA. “Tenemos que asegurar que los algoritmos tomen decisiones justas o que contribuya­n a aumentar las oportunida­des de los individuos…” Y apunta también “a la reducción de los sesgos, a poder explicar los cómos y porqués de esas decisiones automatiza­das y asegurar la privacidad y datos de los ciudadanos”.

Sobre los posibles sesgos se habló también en el debate de ayer en la Fundación Ramón Areces: “El aire que respiran los algoritmos son los datos y, al respirar, también pueden contraer virus. Los algoritmos, en principio, son neutros y no tienen imaginació­n ni emociones, pero si nosotros les entregamos datos sesgados, el resultado tendrá ese sesgo discrimina­torio que luego podemos descubrir en procesos de selección de personal, en la concesión de ayudas…”, señala Jesús Mercader, de la Universida­d Carlos III. Y deja claro este jurista que, en caso de que se produzcan sesgos o de que las decisiones tomadas por las máquinas fueran erróneas, la responsabi­lidad recaería en la empresa que ha delegado en ellas. “Aún no podemos decir que el jefe sea un algoritmo, pero sí es cierto que cada vez está empezando a delegar muchas facultades y decisiones en un algoritmo”, matiza Mercader.

De momento, la presencia del hombre o de la mujer para validar las decisiones de las máquinas sigue siendo el mejor garante para evitar que puedan producirse sesgos o errores. Tampoco podemos olvidar que la IA está en continuo desarrollo y que aún presenta sus carencias y limitacion­es. Tal es el caso, por ejemplo, de la tantas veces anunciada conducción autónoma, que se retrasa continuame­nte por la incapacida­d de que un ordenador pueda atender y valorar todos los elementos que entran en juego al volante. Otro sistema que aplica el sistema Watson de IBM en el campo de la abogacía hace aguas, según el profesor Mercader: “Este algoritmo predictivo acierta en un 70% de los casos en qué dirección va a ir la sentencia del juez, pero tampoco aporta demasiado si tenemos en cuenta que de partida, con solo tirar una moneda al aire, ya tenemos un 50% de posibilida­des de acertar”.

 ??  ??
 ??  ??
 ??  ??
 ??  ??
 ??  ??

Newspapers in Spanish

Newspapers from Spain