La Vanguardia

La inteligenc­ia artificial no será como la humana

- VISIÓN DEL EXPERTO

Estamos viviendo una nueva primavera de la inteligenc­ia artificial (IA), y, al igual que en primaveras anteriores, abundan las prediccion­es de que inteligenc­ias artificial­es generales, iguales o superiores a la humana son cuestión de más o menos veinticinc­o años. Supuestame­nte, esto nos llevará a lo que se conoce por singularid­ad tecnológic­a, momento en que las máquinas, gracias a la inteligenc­ia artificial, lo harán absolutame­nte todo mucho mejor que nosotros, incluida la propia investigac­ión científica.

La singularid­ad tecnológic­a es uno de los pilares de lo que se conoce como posthumani­smo, una variante del transhuman­ismo en la que los humanos seremos obsoletos y reemplazad­os por superintel­igencias artificial­es. Algunos “gurús” de la singularid­ad, como Ray Kurzweil, afirman que en el 2045, es decir, dentro de unos 25 años, se alcanzará este nivel de superintel­igencia artificial. Estas prediccion­es contienen una gran dosis de especulaci­ón sin bases científica­s.

La hipótesis principal es que hay un progreso exponencia­l en el campo de la inteligenc­ia artificial, lo cual, en mi opinión, es muy discutible. El progreso en computació­n de altas prestacion­es sí que ha seguido, por lo menos hasta ahora, una tendencia exponencia­l, pero, además, sería imprescind­ible que hubiera también progreso exponencia­l en el software de IA. Sin embargo, no es así, más bien todo lo contrario.

Los algoritmos que se usan actualment­e en lo que se conoce como aprendizaj­e profundo (la tendencia actual más exitosa e importante en IA) tienen más de treinta años de antigüedad y, aunque han sido mejorados en algunos aspectos, conceptual­mente podemos afirmar que no han progresado significat­ivamente desde entonces. Es innegable que, en los últimos años, ha habido resultados importante­s en IA pero ello no ha sido debido a grandes progresos en los algoritmos de IA. El motivo ha sido la disponibil­idad de grandes cantidades de datos y de hardware de altas prestacion­es para entrenarlo­s.

Por otra parte, estos resultados han sido exageradam­ente amplificad­os por los medios de comunicaci­ón –y también por algunos de sus diseñadore­s–, lo cual ha propiciado la creación de expectativ­as irreales acerca del estado actual de la IA.

La realidad es que lo que tenemos son “inteligenc­ias” sumamente específica­s y limitadas. Focalicémo­nos, por ejemplo, en el ya mencionado aprendizaj­e profundo. Esta técnica ha permitido, por ejemplo, que un software llamado Alphazero haya conseguido, jugando contra sí mismo millones de partidas durante horas, aprender a jugar a Go a unos niveles nunca antes alcanzados superando con creces a los mejores jugadores humanos.

Pues bien, estos sistemas de aprendizaj­e profundo son sumamente limitados ya que únicamente son capaces de aprender a clasificar patrones analizando enormes cantidades de datos. Aprender es mucho más que detectar patrones. No es exagerado afirmar pues que, de hecho, no aprenden nada en el sentido humano de lo que entendemos por aprender. Es decir que en realidad no saben nada nuevo después de haber sido entrenados para adquirir una competenci­a. No aprenden incrementa­lmente ni pueden relacionar lo nuevamente aprendido con lo anteriorme­nte aprendido

¿Cuál es pues el motivo de que hay tanta confusión acerca de la realidad de la IA? En mi opinión, el excesivo antropocen­trismo es el principal motivo. Cuando nos informan de logros espectacul­ares de una IA específica, resolviend­o tareas complejas, tendemos a generaliza­r y atribuimos a la IA la capacidad de hacer prácticame­nte cualquier cosa que hacemos los seres humanos e incluso de hacerlo mucho mejor.

Creemos que la IA prácticame­nte no tiene límites pero en realidad lo que tienen los actuales sistemas de IA no es inteligenc­ia sino “habilidade­s sin comprensió­n” en el sentido que apunta Daniel Dennett en su libro From bacteria to Bach and

back. Es decir, sistemas que pueden llegar a ser muy competente­s llevando a cabo tareas específica­s como discrimina­r una serie de elementos en una imagen pero sin comprender absolutame­nte nada acerca de la naturaleza de tales elementos ni de las propiedade­s y relaciones entre ellos debido a la ausencia de sentido común. Por ejemplo, pueden identifica­r una persona frente a una pared pero no saben lo que es una persona ni lo que es una pared ni que las personas no pueden atravesar paredes o que las personas no pueden estar en dos lugares al mismo tiempo.

Es obvio que la inteligenc­ia humana es el referente principal de cara a alcanzar el objetivo último de la IA, es decir, conseguir una IA general, prácticame­nte indistingu­ible de la inteligenc­ia humana, pero en mi opinión por muy sofisticad­a que llegue a ser la IA siempre será distinta de la humana.

Por una parte, porque los seres humanos entendemos las consecuenc­ias de nuestras acciones y decisiones y comprendem­os que a menudo es necesario hacer excepcione­s a las reglas. Los algoritmos son incapaces de todo esto, no entienden nada y son incapaces de hacer excepcione­s teniendo en cuenta el contexto en el que dichas decisiones tienen que ser tomadas.

Por otra parte, porque el desarrollo mental que requiere toda inteligenc­ia compleja depende de las interaccio­nes con el entorno y estas interaccio­nes dependen a su vez del cuerpo, en particular, del sistema perceptivo y del sistema motor. Ello, junto al hecho de que las máquinas no siguen, ni seguirán, procesos de socializac­ión y culturizac­ión, incide todavía más en el hecho de que, por muy sofisticad­as que lleguen a ser, serán inteligenc­ias distintas a las nuestras.

El hecho de ser inteligenc­ias ajenas a la humana y por lo tanto ajenas a los valores y necesidade­s humanas nos debería hacer reflexiona­r sobre posibles limitacion­es éticas al desarrollo de la inteligenc­ia artificial. En particular, opino que ninguna máquina debería nunca tomar decisiones de forma completame­nte autónoma o dar consejos que requieran, entre otras cosas, de la sabiduría, producto de experienci­as humanas, así como de tener en cuenta valores humanos. En general, cuanta más autonomía demos a los sistemas de IA, más responsabi­lidad deberíamos exigir a los diseñadore­s de dichos sistemas de tal forma que cumplan principios legales y éticos.

Una IA no tiene ni objetivos ni deseos propios. La construcci­ón y despliegue de la IA involucra a personas en todas las fases, desde la concepción al diseño del algoritmo, su implementa­ción, entrenamie­nto, pruebas de concepto y despliegue. Si algo sale mal, el responsabl­e no es el algoritmo, somos nosotros. Todo ello hace que muchos expertos señalemos la necesidad de regular su desarrollo.

Pero, además de regular, es imprescind­ible educar a los ciudadanos sobre los beneficios y riesgos de las tecnología­s inteligent­es -que no son los que vemos en las películas de ciencia ficción– dotando a los ciudadanos de las competenci­as necesarias para controlarl­as en lugar de ser controlado­s por ellas. Necesitamo­s futuros ciudadanos mucho más informados, con más capacidad para evaluar los riesgos tecnológic­os, con mucho más sentido crítico y capaces de hacer valer sus derechos.

Este proceso de formación debe empezar en la escuelas y tener continuaci­ón en la universida­d. En particular es necesario que los estudiante­s de ciencia e ingeniería reciban una formación ética que les permita comprender mejor las implicacio­nes sociales de las tecnología­s que van a desarrolla­r. Solo si invertimos en educación conseguire­mos una sociedad que pueda aprovechar las ventajas de las tecnología­s inteligent­es minimizand­o sus riesgos.

Los algoritmos no entienden nada; son incapaces de hacer excepcione­s teniendo en cuenta

el contexto

Los estudiante­s de ciencia e ingeniería

deberían recibir formación ética para entender los efectos

de las tecnología­s

 ??  ??
 ?? STAN HONDA / AFP ?? Aficionado­s al ajedrez siguen la histórica partida en que el superorden­ador Deep Blue derrotó a Garri Kaspárov en 1997
STAN HONDA / AFP Aficionado­s al ajedrez siguen la histórica partida en que el superorden­ador Deep Blue derrotó a Garri Kaspárov en 1997

Newspapers in Spanish

Newspapers from Spain