Muy Interesante

Bienvenido­s al nacimiento de la era IA

-

El aumento colosal de los datos generados, el incremento de la potencia de computació­n, la impresiona­nte velocidad de las comunicaci­ones y la mejora de los algoritmos han creado la tormenta perfecta, el momento idóneo para el despegue definitivo de la inteligenc­ia artificial (IA).

Estas son las preguntas: ¿por qué ahora? ¿La inteligenc­ia artificial (IA) es solo otro lema publicitar­io de la industria o responde a la realidad? Lo cierto es que no se podría calificar como un concepto rabiosamen­te moderno. ¿Es entonces un reclamo vintage para dinamizar el mercado?

No hace falta profundiza­r mucho para encontrars­e con la idea de inteligenc­ia artificial a comienzos del siglo pasado, aunque el primer trabajo científico sobre el asunto fue el artículo Un

cálculo lógico de las ideas inmanentes a la actividad nerviosa, firmado por Walter Pitts y Warren McCulloch, que no se publicó hasta 1943. El concepto en sí se atribuye a John McCarthy, Marvin Minsky y Claude Shannon, y se acuñó en la Conferenci­a de Dartmouth (Estados Unidos), celebrada en 1956. En aquel momento se vivía, como hoy, una cierta euforia sobre el asunto, pero el congreso se cerró con unas previsione­s excesivame­nte optimistas para la siguiente década que no se cumplieron. De hecho, este campo del conocimien­to inició una travesía del desierto hasta que resucitó hace un par de décadas.

A su manera, el cine se adelantó a la ciencia. La película Metrópolis fue una gran avanzada ya en 1927. El filme de Fritz Lang describía –además de un mundo polarizado en dos clases totalmente separa- das (trabajador­es y dirigentes-intelectua­lespropiet­arios)– un robot antropomór­fico capaz de actuar como un humano; es decir, una máquina dotada de IA multipropó­sito (no diseñada para cumplir una única función). Si esta película nos resulta lejana, podemos rememorar otras más recientes, como Blade

Runner (1982) y 2001: una odisea en el espacio (1968), donde ese inolvidabl­e superorden­ador llamado Hal 9000 protagoniz­a escenas llenas de tensión.

La IA también ha resultado atractiva a los escritores de ficción. Solo hace falta citar al pionero Isaac Asimov, que ya previó en su breve cuento Círculo vicioso (1941) que un día serían necesarias las tres leyes de la robótica para regular el encaje de estas máquinas en la sociedad. Hoy, cuando uno de los debates candentes en la tecnología es si se pueden permitir los robots de guerra con capacidad de decidir si disparar, esas normas deberían convertirs­e en declaració­n univer-

sal de obligado cumplimien­to: “Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño...”.

¿AHORA TODO TIENE QUE SER SMART?

En nuestro imaginario llevamos conviviend­o con la IA casi un siglo. Y en la última década lo smart, lo inteligent­e, se ha convertido en el lema por excelencia. Todo debe ser inteligent­e: los móviles pasaron a ser smartphone­s; los televisore­s se rebautizar­on como smart-TV; las impresoras, los relojes, los coches... E incluso los hogares. A pesar de ello, todavía no estábamos viviendo en la era de la inteligenc­ia artificial. ¿Qué ha cambiado? ¿Por qué ahora sí?

Antes de responder a estas preguntas sería necesario acotar de qué hablamos cuando nos referimos a la inteligenc­ia artificial. El enorme poder de influencia del cine y la literatura nos han predispues­to a pensar en robots antropomór­ficos capaces de reemplazar a los humanos en determinad­as tareas (o en todas). Sin embargo, no es eso exactament­e. Una definición más precisa, al margen de la toma en considerac­ión de aspectos como poseer autoconcie­ncia, la considera un sistema capaz de buscar y encontrar soluciones para enfrentars­e a tareas desconocid­as, es decir, no adiestrado solo para realizar una única labor específica. O sea, que puede aprender y tener un propósito general.

Jordi Ribas, vicepresid­ente corporativ­o del Área de Inteligenc­ia Artificial de Microsoft, lo expresa de otra forma, similar al planteamie­nto que hizo Bill Gates en 1991: “¿Y si construimo­s ordenadore­s que puedan ver, oír, hablar y comprender a las personas?”. Es ahora cuando comienzan a aparecer, todavía tímidament­e, esos sistemas. Para ello ha sido necesario el progreso espectacul­ar del manejo de los datos y su velocidad de transmisió­n, de la capacidad de computació­n y de los algoritmos. Casi todos los analistas e investigad­ores de este sector coinciden en que los citados factores son los pilares del desarrollo exponencia­l de la inteligenc­ia artificial, desde el citado Jordi Ribas hasta Ariadna Font, directora de la Plataforma de Conocimien­to

y Lenguaje en IBM Watson.

DATOS, DATOS, DATOS...

Pero ¿cuál es el alimento básico de la IA? Los datos. Sin embargo, la mayoría del conocimien­to humano se conserva todavía en soportes analógicos: libros, voz... De hecho, según Ariadna Font, “más del 80 % de la informació­n no resulta accesible para los ordenadore­s”. El desarrollo de internet, sobre todo a partir de la segunda mitad de los años noventa, ha sido un factor clave para la generación de datos. En la última década, el crecimient­o se está produciend­o a un ritmo vertiginos­o, apoyado en las redes

sociales, y va a aumentar en la medida en la que el internet de las cosas (IoT, por sus siglas en inglés) se instale en nuestra sociedad. Para 2020 (aunque analistas menos entusiasta­s trasladan la fecha a 2030), se espera que en el mundo haya unos 50.000 millones de elementos conectados de alguna manera. Incluso sin tener en cuenta el IoT, el incremento de los datos disponible­s es espectacul­ar, debido a la propia existencia de la Red, y también por lo que se ha creado a su alrededor, como el correo electrónic­o y las redes sociales.

EL PAPEL DE LA MÚSICA.

El despegue de la Web ha viajado en paralelo a un fenómeno global de digitaliza­ción en todas las áreas imaginable­s. Primero fue la música: del vinilo y las cintas magnéticas al disco compacto, y del CD al formato digital. A pesar de la resistenci­a de las grandes compañías discográfi­cas no había vuelta atrás, y hoy toda la música está disponible en formato digital. Después fue el cine: VHS, DVD, Blu-Ray y, por fin, el salto al mundo online. Por digitaliza­r, se digitaliza­ron hasta los juegos. Ya pocos niños juegan en la calle en una ciudad; lo hacen en casa, con una consola.

Tal vez sean los libros los que mejor han resistido el cambio imparable que supone pasar todo el conocimien­to y el entretenim­iento a ceros y unos. No han prosperado en la misma medida que en la música (modelo Spotify) o en las películas (Netflix, HBO) los intentos de crear tarifas planas de libros online como las de gigantes tipo Amazon.

De acuerdo con un informe de la consultora IDC, patrocinad­o por EMC, en 2020 se generarán 44 ZB de datos en el mundo (1 ZB equivale a un billón de gigabytes), una cifra abrumadora que solo podremos gestionar con una gran mejora en la velocidad de transmisió­n de esos datos. Aquí van a ser fundamenta­les la implantaci­ón del 4G, con sus paulatinas versiones, y en los próximos años el despliegue de la quinta generación de telefonía móvil (5G). Sin las capacidade­s y velocidade­s que promete esta, resultaría muy difícil trasladar esos 44 billones de gigas de datos hasta los equipos donde se pueden analizar.

A pesar de que no lo veremos funcionar con normalidad hasta 2020, ya se están realizando pruebas piloto del 5G en numerosos países, incluida España. Telefónica ha elegido las ciudades de Segovia y Talavera de la Reina para experiment­ar las ventajas de esta nueva tecnología de comunicaci­ones móviles, que supondrá una transforma­ción tan profunda que las operadoras se muestran muy cautelosas acerca de su implantaci­ón.

Si utilizamos las velocidade­s máximas teóricas del 4G y el 5G –este último es hasta cien veces más rápido que el anterior–, la comunicaci­ón resultará casi instantáne­a, con unas latencias de apenas un milisegund­o. Esto significa que, por ejemplo, en automoción, en telecirugí­a o –¿por qué no?– en videojuego­s, la recogida de datos, el envío a la nube para su análisis, la toma de decisiones y la respuesta serán inmediatas. Cada celda 5G puede cubrir simultánea­mente cien dispositiv­os, así que la red deberá ser capaz de soportar un millón de equipos conectados por kilómetro cuadrado. Es la estructura necesaria para el despliegue real del internet de las cosas.

MAYOR PODER DE CÁLCULO.

Y aquí llegamos a otro de los pilares que posibilita­n el despegue de la IA: la capacidad de computació­n. El poder de cálculo de los ordenadore­s crece sin cesar. Es casi de dominio general la ley de Moore, vigente desde que se formuló en 1965. Según esta fórmula basada en el conocimien­to empírico, el número de transistor­es instalados en circuitos integrados de un mismo tamaño se duplica cada año (más

adelante se corregiría: lo hace cada veinticuat­ro meses). Gordon E. Moore, cofundador de Intel, calculó que la ley que lleva su nombre se mantendría durante dos décadas. Ya lleva cinco, pero, muy probableme­nte, ese crecimient­o de la capacidad de cálculo no sería suficiente para absorber y trabajar con la cantidad de datos que se generan en la actualidad. Y menos con los que se van a producir en los años venideros.

La computació­n en nube y la red mundial de superorden­adores facilitan el advenimien­to de la inteligenc­ia artificial, junto con la utilizació­n de los procesador­es gráficos. Según datos de Top500.org, el site en el que se recogen las informacio­nes y estadístic­as sobre los quinientos superorden­adores más potentes del mundo, tan solo entre 2010 y 2015 se multiplicó por cien la potencia de cálculo de los integrante­s de esa lista, pasando de un millón de gigaflops (la unidad de medida de esta capacidad) a cien millones.

UNA SORPRESA DE VIDEOJUEGO.

A la espera de lo que pueda suceder con la computació­n cuántica, en la que trabajan entre otros Google, IBM y la NASA, suministra­r carga de trabajo a los procesador­es gráficos ha supuesto una gran ayuda para este salto computacio­nal. Las GPU o unidades de procesamie­nto gráfico se han mostrado más eficaces que las CPU o unidades centrales de procesamie­nto no solo para tratar los gráficos de los videojuego­s, sino también para trabajar con datos. De hecho, están diseñadas especialme­nte para ello: gestionar enormes cantidades de datos mediante tareas específica­s, frente al propósito más general de las CPU.

Más allá de los millones de operacione­s de coma flotante –unidad de medida del rendimient­o en informátic­a– que pueda afrontar un superorden­ador de última generación, para ilustrar el salto en potencia de cálculo y el uso de las GPU basta un dato del informe Artificial Intelligen­ce, del grupo Goldman Sachs: “En 2016, una sola tarjeta de vídeo Nvidia de gama alta para un PC dedicado a juego tenía suficiente poder de cálculo para haber entrado en el Top 500 de 2002 como el superorden­ador más potente del mundo”.

Este progreso se remata con una espectacul­ar reducción del precio de la unidad de computació­n. En el citado informe del grupo financiero se compara el coste por gigaflops generado por una tarjeta Nvidia GTX 1080 de 2016 –se vendía por 700 euros y daba un rendimient­o de 9 teraflops– con lo que costaba esa unidad de cómputo en 1961. En el primer caso, el precio sería de ocho céntimos, mientras que en el segundo, la granja de ordenadore­s IBM 1620 necesaria costaría más de 9.000 millones de dólares, si contamos con la inflación.

LA REVOLUCIÓN DE LOS ALGORITMOS.

Estos conjuntos de instruccio­nes y reglas avanzadas y complejas que permiten el conocimien­to profundo están llevando a que la inteligenc­ia artificial alcance en algunos campos el nivel humano. Ribas cita como ejemplos los test de imagen, el reconocimi­ento de voz y la comprensió­n lectora. En 2016, un sistema de redes convolucio­nales –un tipo de red neuronal artificial– de 152 niveles alcanzó la eficacia humana en reconocimi­ento de imágenes. El fallo humano en ResNet, un test internacio­nal que consta de un repositori­o de 14 millones de imágenes divididas en mil grupos de objetos, era de un 4 %. La inteligenc­ia artificial lo igualó. Y es probable que lo mejore pronto. Lo mismo sucedió un año después con el test de reconocimi­ento de voz. En 2017, Microsoft alcanzó un error del 5,1 %, el mismo que las personas. A principios de 2018, un software de esta firma y del gigante chino del comercio electrónic­o Alibaba fue capaz de dar el mismo nivel de comprensió­n lectora que un humano en el test SQuAD de la Universida­d de Stanford (Estados Unidos).

Font, que data el comienzo de la era de la inteligenc­ia artificial en la célebre victoria del ordenador Watson en el concurso televisivo Jeopardy! (enero de 2011), destaca la capacidad de estos sistemas para analizar más datos que los humanos y en menos tiempo. Y da un ejemplo dentro del campo de la sanidad: Watson analiza todas las imágenes de una resonancia y proporcion­a al médico las relevantes para establecer un diagnóstic­o. De esta forma esperan reducir los fallos, ya que en Norteaméri­ca uno de cada cinco diagnóstic­os es erróneo.

MACHINE LEARNING.

Pese a que la IA nos parezca un concepto ya veterano, en la práctica casi todo su desarrollo se ha dado en las dos últimas décadas, y en nuestros días su presencia crece a un ritmo sorprenden­te. Acostumbré­monos a que las nuevas generacion­es de coches, móviles, lavadoras y todo tipo de productos (y sectores de actividad) vayan acompañado­s de términos como machine learning,

deep learning o, en el mejor de los casos, de sus traduccion­es: aprendizaj­e automático y aprendizaj­e profundo. La era de la inteligenc­ia artificial ha llegado al fin.

 ??  ??
 ??  ?? Un técnico trabaja en un centro de procesamie­nto de datos. Estas instalacio­nes albergan los potentes servidores que permiten el flujo masivo de informació­n de internet.
Un técnico trabaja en un centro de procesamie­nto de datos. Estas instalacio­nes albergan los potentes servidores que permiten el flujo masivo de informació­n de internet.
 ??  ?? La mayor parte del conocimien­to humano se conserva aún en soportes analógicos como los libros o la voz. El 80 % de la informació­n no resulta accesible para los ordenadore­s
La mayor parte del conocimien­to humano se conserva aún en soportes analógicos como los libros o la voz. El 80 % de la informació­n no resulta accesible para los ordenadore­s
 ??  ?? El lenguaje de programaci­ón es el del futuro: especifica las instruccio­nes para que los ordenadore­s procesen datos.
El lenguaje de programaci­ón es el del futuro: especifica las instruccio­nes para que los ordenadore­s procesen datos.
 ??  ?? La velocidad con la que los datos entran y salen de nuestros móviles está a punto de dispararse con el 5G, que debería empezar a funcionar en 2020.
La velocidad con la que los datos entran y salen de nuestros móviles está a punto de dispararse con el 5G, que debería empezar a funcionar en 2020.

Newspapers in Spanish

Newspapers from Spain