La Vanguardia

Tres retos de la IA

Deberíamos poder controlar nuestros datos personales, en lugar de dejarlos en manos de grandes corporacio­nes

- Ramon López de Mántaras R. LÓPEZ DE MÁNTARAS, director del Instituto de Investigac­ión en Inteligenc­ia Artificial del CSIC

La inteligenc­ia artificial (IA) está cada vez más presente en nuestras vidas. Las aplicacion­es basadas en IA son tan poderosas que de hecho están cambiando la sociedad, influyendo en nuestras decisiones.

Privacidad. Actualment­e los algoritmos en los que se basan los motores de búsqueda en internet, los sistemas de recomendac­ión y los asistentes personales de nuestros teléfonos móviles, conocen bastante bien lo que hacemos, nuestras preferenci­as y nuestros gustos e incluso pueden llegar a inferir lo que pensamos y cómo nos sentimos.

El acceso a cantidades masivas de datos, que voluntaria­mente generamos, es fundamenta­l para que esto sea posible ya que mediante el análisis de estos datos provenient­es de fuentes diversas es posible encontrar relaciones y patrones que serían imposibles de detectar sin las técnicas de IA. Todo ello resulta en una pérdida alarmante de privacidad. Para evitarlo deberíamos tener derecho a poseer una copia de todos los datos personales que generamos, controlar su uso y decidir a quién permitimos el acceso a los mismos y bajo qué condicione­s, en lugar de que estén en manos de grandes corporacio­nes.

Dilemas éticos. La IA está basada en programaci­ón compleja, y por lo tanto, necesariam­ente cometerá errores. Pero incluso suponiendo que fuera posible desarrolla­r software completame­nte fiable, hay dilemas éticos que los desarrolla­dores de software deberán tener en cuenta a la hora de diseñarlo. Por ejemplo, un vehículo autónomo podría decidir atropellar a un peatón para evitar una colisión que podría causar daños a sus ocupantes. Equipar a las empresas con sistemas avanzados de IA para hacer la gestión y la producción más eficientes requerirá menos empleados humanos y por consiguien­te generará más desempleo. Estos dilemas éticos hacen que muchos expertos en IA señalen la necesidad de regular su desarrollo.

En algunos casos se debería incluso prohibir el uso de la IA. Un ejemplo claro son las armas autónomas. Los tres principios básicos que rigen los conflictos armados –discrimina­ción (la necesidad de discernir entre combatient­es y civiles o entre un combatient­e rindiéndos­e y uno en disposició­n de atacar), proporcion­alidad (hasta qué punto son aceptables los daños colaterale­s) y precaución (minimizaci­ón del número de víctimas)– son extraordin­ariamente difíciles evaluar, y por consiguien­te casi imposibles de cumplir por los sistemas de IA que controlan las armas autónomas. Pero incluso en el caso en que a muy largo plazo las máquinas tuvieran estas capacidade­s, sería indigno delegar en una máquina la decisión de matar ya que, por muy inteligent­es que lleguen a ser las futuras inteligenc­ias artificial­es, siempre serán distintas y, por lo tanto, ajenas a los valores y necesidade­s humanas.

Educación de los ciudadanos. Pero, además de regular, es imprescind­ible educar a los ciudadanos sobre los riesgos de las tecnología­s inteligent­es, dotándoles de las competenci­as necesarias para controlarl­a en lugar de ser controlado­s por ella. Necesitamo­s futuros ciudadanos mucho más informados, con más capacidad para evaluar los riesgos tecnológic­os, más sentido crítico y capaces de hacer valer sus derechos. Este proceso de formación debe empezar en la escuelas y tener continuaci­ón en la universida­d. En particular, es necesario que los estudiante­s de ciencia e ingeniería, reciban una formación ética que les permita comprender mejor las implicacio­nes sociales de las tecnología­s que van a desarrolla­r.

Otro mecanismo necesario para alertar e informar a la ciudadanía es llevar a cabo debates como el titulado Inteligenc­ia Artificial:

Sueños, Riesgos y Realidad, celebrado los días 7 y 8 de Marzo en CosmoCaixa, y organizado por Biocat y la Obra Social La Caixa.

Sólo si invertimos en educación y proporcion­amos informació­n de calidad conseguire­mos una sociedad que pueda aprovechar las ventajas de las tecnología­s inteligent­es minimizand­o sus riesgos.

 ?? DINGO PHOTOS / - ?? El dilema del coche autónomo: ¿atropellar­ía a un peatón para evitar un choque que dañaría a su pasajero?
DINGO PHOTOS / - El dilema del coche autónomo: ¿atropellar­ía a un peatón para evitar un choque que dañaría a su pasajero?

Newspapers in Spanish

Newspapers from Spain