Bienvenidos al nacimiento de la era IA
El aumento colosal de los datos generados, el incremento de la potencia de computación, la impresionante velocidad de las comunicaciones y la mejora de los algoritmos han creado la tormenta perfecta, el momento idóneo para el despegue definitivo de la inteligencia artificial (IA).
Estas son las preguntas: ¿por qué ahora? ¿La inteligencia artificial (IA) es solo otro lema publicitario de la industria o responde a la realidad? Lo cierto es que no se podría calificar como un concepto rabiosamente moderno. ¿Es entonces un reclamo vintage para dinamizar el mercado?
No hace falta profundizar mucho para encontrarse con la idea de inteligencia artificial a comienzos del siglo pasado, aunque el primer trabajo científico sobre el asunto fue el artículo Un
cálculo lógico de las ideas inmanentes a la actividad nerviosa, firmado por Walter Pitts y Warren McCulloch, que no se publicó hasta 1943. El concepto en sí se atribuye a John McCarthy, Marvin Minsky y Claude Shannon, y se acuñó en la Conferencia de Dartmouth (Estados Unidos), celebrada en 1956. En aquel momento se vivía, como hoy, una cierta euforia sobre el asunto, pero el congreso se cerró con unas previsiones excesivamente optimistas para la siguiente década que no se cumplieron. De hecho, este campo del conocimiento inició una travesía del desierto hasta que resucitó hace un par de décadas.
A su manera, el cine se adelantó a la ciencia. La película Metrópolis fue una gran avanzada ya en 1927. El filme de Fritz Lang describía –además de un mundo polarizado en dos clases totalmente separa- das (trabajadores y dirigentes-intelectualespropietarios)– un robot antropomórfico capaz de actuar como un humano; es decir, una máquina dotada de IA multipropósito (no diseñada para cumplir una única función). Si esta película nos resulta lejana, podemos rememorar otras más recientes, como Blade
Runner (1982) y 2001: una odisea en el espacio (1968), donde ese inolvidable superordenador llamado Hal 9000 protagoniza escenas llenas de tensión.
La IA también ha resultado atractiva a los escritores de ficción. Solo hace falta citar al pionero Isaac Asimov, que ya previó en su breve cuento Círculo vicioso (1941) que un día serían necesarias las tres leyes de la robótica para regular el encaje de estas máquinas en la sociedad. Hoy, cuando uno de los debates candentes en la tecnología es si se pueden permitir los robots de guerra con capacidad de decidir si disparar, esas normas deberían convertirse en declaración univer-
sal de obligado cumplimiento: “Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño...”.
¿AHORA TODO TIENE QUE SER SMART?
En nuestro imaginario llevamos conviviendo con la IA casi un siglo. Y en la última década lo smart, lo inteligente, se ha convertido en el lema por excelencia. Todo debe ser inteligente: los móviles pasaron a ser smartphones; los televisores se rebautizaron como smart-TV; las impresoras, los relojes, los coches... E incluso los hogares. A pesar de ello, todavía no estábamos viviendo en la era de la inteligencia artificial. ¿Qué ha cambiado? ¿Por qué ahora sí?
Antes de responder a estas preguntas sería necesario acotar de qué hablamos cuando nos referimos a la inteligencia artificial. El enorme poder de influencia del cine y la literatura nos han predispuesto a pensar en robots antropomórficos capaces de reemplazar a los humanos en determinadas tareas (o en todas). Sin embargo, no es eso exactamente. Una definición más precisa, al margen de la toma en consideración de aspectos como poseer autoconciencia, la considera un sistema capaz de buscar y encontrar soluciones para enfrentarse a tareas desconocidas, es decir, no adiestrado solo para realizar una única labor específica. O sea, que puede aprender y tener un propósito general.
Jordi Ribas, vicepresidente corporativo del Área de Inteligencia Artificial de Microsoft, lo expresa de otra forma, similar al planteamiento que hizo Bill Gates en 1991: “¿Y si construimos ordenadores que puedan ver, oír, hablar y comprender a las personas?”. Es ahora cuando comienzan a aparecer, todavía tímidamente, esos sistemas. Para ello ha sido necesario el progreso espectacular del manejo de los datos y su velocidad de transmisión, de la capacidad de computación y de los algoritmos. Casi todos los analistas e investigadores de este sector coinciden en que los citados factores son los pilares del desarrollo exponencial de la inteligencia artificial, desde el citado Jordi Ribas hasta Ariadna Font, directora de la Plataforma de Conocimiento
y Lenguaje en IBM Watson.
DATOS, DATOS, DATOS...
Pero ¿cuál es el alimento básico de la IA? Los datos. Sin embargo, la mayoría del conocimiento humano se conserva todavía en soportes analógicos: libros, voz... De hecho, según Ariadna Font, “más del 80 % de la información no resulta accesible para los ordenadores”. El desarrollo de internet, sobre todo a partir de la segunda mitad de los años noventa, ha sido un factor clave para la generación de datos. En la última década, el crecimiento se está produciendo a un ritmo vertiginoso, apoyado en las redes
sociales, y va a aumentar en la medida en la que el internet de las cosas (IoT, por sus siglas en inglés) se instale en nuestra sociedad. Para 2020 (aunque analistas menos entusiastas trasladan la fecha a 2030), se espera que en el mundo haya unos 50.000 millones de elementos conectados de alguna manera. Incluso sin tener en cuenta el IoT, el incremento de los datos disponibles es espectacular, debido a la propia existencia de la Red, y también por lo que se ha creado a su alrededor, como el correo electrónico y las redes sociales.
EL PAPEL DE LA MÚSICA.
El despegue de la Web ha viajado en paralelo a un fenómeno global de digitalización en todas las áreas imaginables. Primero fue la música: del vinilo y las cintas magnéticas al disco compacto, y del CD al formato digital. A pesar de la resistencia de las grandes compañías discográficas no había vuelta atrás, y hoy toda la música está disponible en formato digital. Después fue el cine: VHS, DVD, Blu-Ray y, por fin, el salto al mundo online. Por digitalizar, se digitalizaron hasta los juegos. Ya pocos niños juegan en la calle en una ciudad; lo hacen en casa, con una consola.
Tal vez sean los libros los que mejor han resistido el cambio imparable que supone pasar todo el conocimiento y el entretenimiento a ceros y unos. No han prosperado en la misma medida que en la música (modelo Spotify) o en las películas (Netflix, HBO) los intentos de crear tarifas planas de libros online como las de gigantes tipo Amazon.
De acuerdo con un informe de la consultora IDC, patrocinado por EMC, en 2020 se generarán 44 ZB de datos en el mundo (1 ZB equivale a un billón de gigabytes), una cifra abrumadora que solo podremos gestionar con una gran mejora en la velocidad de transmisión de esos datos. Aquí van a ser fundamentales la implantación del 4G, con sus paulatinas versiones, y en los próximos años el despliegue de la quinta generación de telefonía móvil (5G). Sin las capacidades y velocidades que promete esta, resultaría muy difícil trasladar esos 44 billones de gigas de datos hasta los equipos donde se pueden analizar.
A pesar de que no lo veremos funcionar con normalidad hasta 2020, ya se están realizando pruebas piloto del 5G en numerosos países, incluida España. Telefónica ha elegido las ciudades de Segovia y Talavera de la Reina para experimentar las ventajas de esta nueva tecnología de comunicaciones móviles, que supondrá una transformación tan profunda que las operadoras se muestran muy cautelosas acerca de su implantación.
Si utilizamos las velocidades máximas teóricas del 4G y el 5G –este último es hasta cien veces más rápido que el anterior–, la comunicación resultará casi instantánea, con unas latencias de apenas un milisegundo. Esto significa que, por ejemplo, en automoción, en telecirugía o –¿por qué no?– en videojuegos, la recogida de datos, el envío a la nube para su análisis, la toma de decisiones y la respuesta serán inmediatas. Cada celda 5G puede cubrir simultáneamente cien dispositivos, así que la red deberá ser capaz de soportar un millón de equipos conectados por kilómetro cuadrado. Es la estructura necesaria para el despliegue real del internet de las cosas.
MAYOR PODER DE CÁLCULO.
Y aquí llegamos a otro de los pilares que posibilitan el despegue de la IA: la capacidad de computación. El poder de cálculo de los ordenadores crece sin cesar. Es casi de dominio general la ley de Moore, vigente desde que se formuló en 1965. Según esta fórmula basada en el conocimiento empírico, el número de transistores instalados en circuitos integrados de un mismo tamaño se duplica cada año (más
adelante se corregiría: lo hace cada veinticuatro meses). Gordon E. Moore, cofundador de Intel, calculó que la ley que lleva su nombre se mantendría durante dos décadas. Ya lleva cinco, pero, muy probablemente, ese crecimiento de la capacidad de cálculo no sería suficiente para absorber y trabajar con la cantidad de datos que se generan en la actualidad. Y menos con los que se van a producir en los años venideros.
La computación en nube y la red mundial de superordenadores facilitan el advenimiento de la inteligencia artificial, junto con la utilización de los procesadores gráficos. Según datos de Top500.org, el site en el que se recogen las informaciones y estadísticas sobre los quinientos superordenadores más potentes del mundo, tan solo entre 2010 y 2015 se multiplicó por cien la potencia de cálculo de los integrantes de esa lista, pasando de un millón de gigaflops (la unidad de medida de esta capacidad) a cien millones.
UNA SORPRESA DE VIDEOJUEGO.
A la espera de lo que pueda suceder con la computación cuántica, en la que trabajan entre otros Google, IBM y la NASA, suministrar carga de trabajo a los procesadores gráficos ha supuesto una gran ayuda para este salto computacional. Las GPU o unidades de procesamiento gráfico se han mostrado más eficaces que las CPU o unidades centrales de procesamiento no solo para tratar los gráficos de los videojuegos, sino también para trabajar con datos. De hecho, están diseñadas especialmente para ello: gestionar enormes cantidades de datos mediante tareas específicas, frente al propósito más general de las CPU.
Más allá de los millones de operaciones de coma flotante –unidad de medida del rendimiento en informática– que pueda afrontar un superordenador de última generación, para ilustrar el salto en potencia de cálculo y el uso de las GPU basta un dato del informe Artificial Intelligence, del grupo Goldman Sachs: “En 2016, una sola tarjeta de vídeo Nvidia de gama alta para un PC dedicado a juego tenía suficiente poder de cálculo para haber entrado en el Top 500 de 2002 como el superordenador más potente del mundo”.
Este progreso se remata con una espectacular reducción del precio de la unidad de computación. En el citado informe del grupo financiero se compara el coste por gigaflops generado por una tarjeta Nvidia GTX 1080 de 2016 –se vendía por 700 euros y daba un rendimiento de 9 teraflops– con lo que costaba esa unidad de cómputo en 1961. En el primer caso, el precio sería de ocho céntimos, mientras que en el segundo, la granja de ordenadores IBM 1620 necesaria costaría más de 9.000 millones de dólares, si contamos con la inflación.
LA REVOLUCIÓN DE LOS ALGORITMOS.
Estos conjuntos de instrucciones y reglas avanzadas y complejas que permiten el conocimiento profundo están llevando a que la inteligencia artificial alcance en algunos campos el nivel humano. Ribas cita como ejemplos los test de imagen, el reconocimiento de voz y la comprensión lectora. En 2016, un sistema de redes convolucionales –un tipo de red neuronal artificial– de 152 niveles alcanzó la eficacia humana en reconocimiento de imágenes. El fallo humano en ResNet, un test internacional que consta de un repositorio de 14 millones de imágenes divididas en mil grupos de objetos, era de un 4 %. La inteligencia artificial lo igualó. Y es probable que lo mejore pronto. Lo mismo sucedió un año después con el test de reconocimiento de voz. En 2017, Microsoft alcanzó un error del 5,1 %, el mismo que las personas. A principios de 2018, un software de esta firma y del gigante chino del comercio electrónico Alibaba fue capaz de dar el mismo nivel de comprensión lectora que un humano en el test SQuAD de la Universidad de Stanford (Estados Unidos).
Font, que data el comienzo de la era de la inteligencia artificial en la célebre victoria del ordenador Watson en el concurso televisivo Jeopardy! (enero de 2011), destaca la capacidad de estos sistemas para analizar más datos que los humanos y en menos tiempo. Y da un ejemplo dentro del campo de la sanidad: Watson analiza todas las imágenes de una resonancia y proporciona al médico las relevantes para establecer un diagnóstico. De esta forma esperan reducir los fallos, ya que en Norteamérica uno de cada cinco diagnósticos es erróneo.
MACHINE LEARNING.
Pese a que la IA nos parezca un concepto ya veterano, en la práctica casi todo su desarrollo se ha dado en las dos últimas décadas, y en nuestros días su presencia crece a un ritmo sorprendente. Acostumbrémonos a que las nuevas generaciones de coches, móviles, lavadoras y todo tipo de productos (y sectores de actividad) vayan acompañados de términos como machine learning,
deep learning o, en el mejor de los casos, de sus traducciones: aprendizaje automático y aprendizaje profundo. La era de la inteligencia artificial ha llegado al fin.