La inteligencia artificial velará por la ética
Las organizaciones líderes vigilan los sesgos ideológicos en la captura y el tratamiento de los datos
La inteligencia artificial empieza a impregnarlo todo. Para el año 2030, las previsiones hablan de que su contribución al PIB mundial será de 14.000 millones de euros, un pronóstico que podría quedarse corto. Hay algoritmos predictivos y otros que ya toman decisiones en múltiples campos. En plena explosión del fenómeno, las organizaciones comienzan a tomarse en serio el debate ético del prodigio.
La inteligencia artificial (IA) y sus algoritmos ya saben adivinar el próximo grupo de música que nos gustará, la película o serie que disfrutaremos o la prenda que nos quedará perfecta. También estos mecanismos pueden anticiparse a nuestras necesidades, analizar pruebas diagnósticas médicas, ayudar en el desarrollo de nuevos fármacos, señalar a la Hacienda pública los contribuyentes sospechosos de estar cometiendo fraude… Tal es su sabiduría y su nivel de auto aprendizaje, que muchas de las decisiones empiezan a delegarse en estas máquinas. Entre otros ejemplos, podemos recordar que, en Cataluña, desde 2016, un algoritmo evalúa si un recluso merece o no disfrutar de un permiso penitenciario. Aunque cabe esperar que la decisión final la toma un juez, este ya se apoya en los dictámenes que le formula este instrumento para valorar los posibles riesgos de su excarcelación. Por no hablar de las bolsas de valores, donde los algoritmos ya marcan con sus decisiones de compra y venta las subidas y bajadas de los títulos. O de los bancos y organismos que adoptan estas herramientas para determinar quién merece o no que se le conceda un crédito o una ayuda…
La inteligencia artificial empieza a estar en todas partes, con algoritmos predictivos y con otros que ya toman sus propias decisiones. De ahí que nos parezcan cortas las previsiones que apuntan a que en 2030 su aportación al PIB mundial será de 14.000 millones de euros. En ese escenario, son muchas las voces que ya se levantan para advertir de los riesgos de dejar al arbitrio de las máquinas según qué decisiones. El tema no debe de ser baladí cuando, en plena pandemia, el Gobierno español ha decidido destinar 600 millones de euros en el periodo 2021-2023 a su Estrategia Nacional de Inteligencia Artificial. Desde Moncloa justifican esta decisión argumentando que “la estrategia resultará fundamental de cara a incorporar la IA como factor de mejora de la competitividad y el desarrollo social, y lo hará, además, impulsando desarrollos tecnológicos que ayuden a proyectar el uso de la lengua española en los ámbitos de aplicación de la IA”.
Llueven las propuestas para marcar los límites de una tecnología que, según los peores agoreros, puede superar a la inteligencia humana y dejarla en evidencia. O igual ya lo está haciendo: “En la interpretación de pruebas diagnósticas, los algoritmos han demostrado que pueden predecir enfermedades importantes con mayor precisión que el ojo clínico del profesional. Este tiene siempre una experiencia más limitada frente a la máquina, que maneja millones de resonancias o radiografías previas. Estos sistemas pueden ayudar a detectar enfermedades en una etapa anterior. Es un claro ejemplo de cómo los algoritmos pueden mejorar la vida de las personas, pero tampoco podemos pensar que la inteligencia artificial es perfecta. De hecho, no ha sido capaz de prevenir una pandemia como la que estamos sufriendo”, explica Alejandro Huergo, catedrático de Derecho Administrativo en la Universidad de Oviedo, quien intervino en un debate en la Fundación Ramón Areces sobre La regulación de los algoritmos. Tanto Huergo como otros juristas que participaron en este foro pidieron más transparencia en el uso de estos sistemas de IA. “Hay resistencia a mostrar cómo funcionan los algoritmos. Por ejemplo, la Administración no quiere mostrar los que utiliza para identificar a presuntos infractores. Tampoco las empresas enseñan cómo funciona. Se teme que, si se conoce el algoritmo, se le intente engañar. Eso mismo pasa con el posicionamiento web, cuyo objetivo es engañar a su vez al algoritmo de Google”, añade Huergo.
Para Jesús Mercader, catedrático de Derecho del Trabajo en la Universidad Carlos III, conocer la lógica del algoritmo puede ayudar a descubrir los posibles sesgos que contiene: “Los tribunales están empezando a reconocer como discriminatorios algunos algoritmos”. “Hay que dar un paso más en la protección de datos, por ejemplo, a través de la anonimización, de un mayor control sobre esas informaciones, de una mayor transparencia… No es que haya que conocer el algoritmo entero, que puede ser en algunos casos el corazón estratégico de una empresa, pero sí su lógica”, añade.
Ayudar en los ODS
La Fundación Seres ha elaborado un decálogo para fomentar el uso ético de la IA
En estos momentos, algunas de las empresas con mayor valor y capitalización bursátil, entre ellas Amazon, Google, Facebook o Netflix, son compañías que se basan en el análisis de datos y en los algoritmos.
“La automatización facilita a las empresas reducir costes y ser más eficientes, por ejemplo, con el análisis automático de datos para conocer las conductas de los usuarios de Internet, anticiparse a los deseos de sus clientes, enviarles publicidad personalizada… En el mundo de los seguros también se ha avanzado mucho en este campo”, señala Alejandro Huergo.
Pero el alcance de esta tecnología va también bastante más allá de los intereses mercantiles. “La Inteligencia Artificial puede ayudar en 129 de los principios que ha marcado la Organización de Naciones Unidas dentro de sus Objetivos de Desarrollo Sostenible (ODS)”, explica Lucila García, subdirectora general de Fundación Seres, citando un estudio de la Universidad de Estocolmo. Seres ha elaborado con Everis y la colaboración de 17 empresas de todos los sectores y un decálogo que quiere comprometer a todos sobre un uso ético y responsable de la Inteligencia Artificial.