INTELIGENCIA ARTIFICIAL
YA ESTÁ AQUÍ LA TECNOLOGÍA QUE CAMBIARÁ NUESTRAS VIDAS PARA SIEMPRE COCHES AUTÓNOMOS, ASISTENTES VIRTUALES, ROBOTS QUE APRENDEN SOLOS...
“¿Hasta dónde llegarías para ser libre?” Markus, androide RK200 del videojuego Detroit : Become Human
¿Te imaginas estar viendo una película y que unas cámaras con software y chips de inteligencia artificial (IA) estén comprobando en tiempo real si ríes, lloras, frunces el ceño, tienes miedo, te duermes o te limitas a comer palomitas sin atender a lo que ocurre en la pantalla? Pues sí, esto ya se puede hacer, y Disney lo está probando para averiguar si sus películas gustan o no gustan a la audiencia, entre otras cosas.
Fue en julio de 2017 cuando la gran compañía de California presentó su tecnología para rastrear las reacciones faciales de los espectadores. ¿Y cómo lo consiguió? Pues aprovechando la unidad de procesamiento de gráficos (GPU) Tesla K40, de la firma NVIDIA, reforzada con capacidades de aprendizaje automático o machine learning (ML), que intenta imitar los procesos de pensamiento humano. El ML consiste en entrenar una red neuronal artificial para que discurra por su cuenta y luego haga inferencias o deducciones a partir de nuevos datos: imágenes, voz, etcétera.
Y sí, se trata de la misma NVIDIA que muchos, sobre todo los jóvenes que practican los deportes electrónicos o eSports, conocen por ser una de las compañías líderes en procesadores gráficos que integran los superordenadores para jugones. Gracias a aquellos, juegos como League of Legends o Call of Duty van como un tiro; amén de ofrecer una buena conectividad, claro. SEGÚN LOS EXPERTOS, DISNEY PODRÍA USAR ESTA TECNOLOGÍA, TODAVÍA EN FASE DE PRUEBAS, sobre todo para evaluar un filme antes de su lanzamiento y hacer montajes finales más ajustados a los gustos de los espectadores. Incluso cabría la posibilidad de crear una especie de narraciones sensibles en las que la historia iría cambiando acorde con los gestos del público. Y fuera del ámbito cinematográfico, la compañía también podría medir las reacciones de los visitantes a las atracciones de sus parques temáticos y aprovechar los resultados para realizar cambios que aumenten el disfrute de la experiencia. E incluso si esta innovación nunca viera la luz del día –o la oscuridad de las salas– más allá de la fase de investigación, serviría como un trampolín para que la empresa desarrolle otras aplicaciones de IA.
No hay duda, y así lo dicen los analistas de consultoras como Goldman Sachs y JP Morgan: la citada multinacional NVIDIA, con sede en Santa Clara (California), ha dejado de ser solo un productor de unidades de procesamiento gráfico (GPU) –principalmente para videojuegos– y se ha convertido también en un exitoso fabricante de chips y hardware con el potencial de emplearse en programas de aprendizaje automático.
Y es que su machine learning acelerada por GPU está hoy a la vanguardia de muchos proyectos en compañías innovadoras e instituciones académicas de todo el mundo. Así, NTechLab, en Moscú, intenta entrenar con los procesadores de NVIDIA modelos de reconocimiento facial que permitan identificar individuos en concentraciones densas. NtechLab ya era conocida por su aplicación FindFace, que sirve para encontrar contactos en las redes sociales, subiendo simplemente una foto, en menos de un segundo y con un índice de acierto del 80 %.
Por su parte, las universidades norteamericanas de Illinois, en Urbana-Champaign, y Stanford, en California, simulan con las mismas herramientas la evolución del virus del Ébola con el fin de averiguar qué anticuerpos mutantes lo combaten mejor. El objetivo final sería desarrollar versiones sintéticas de esas moléculas defensivas, y hay planes adicionales para ampliar la estrategia a las epidemias de gripe.
La compañía de tecnología médica personalizada HeartFlow también desarrolla gracias al hardware inteligente de NVIDIA algoritmos que analizan datos de imágenes para crear modelos 3D de las arterias
coronarias de un paciente y detectar de ese modo posibles obstrucciones. Y la ya mencionada Universidad de Stanford utiliza los microprocesadores en una aplicación que analiza fotos de lesiones cutáneas y las clasifica como benignas o malignas con niveles de precisión similares a los logrados por los dermatólogos.
Esta cascada de prometedoras aplicaciones ha disparado las acciones de NVIDIA más del 160 % en el último año, y más de un 1.000 % en los últimos cinco. El potencial de la inteligencia artificial en la atención médica –y en prácticamente cualquier otra industria– es lo suficientemente grande como para que la multinacional californiana continúe siendo una de las ganadoras a largo plazo en el área de procesadores, un mercado jugosísimo: según los responsables de Goldman Sachs, el hardware de IA tiene un potencial para crecer desde 12.000 millones de dólares en 2017 a más de 35.000 millones para el año 2020.
Y tampoco es de extrañar que NVIDIA esté liderando el desarrollo de lo que serán cerebros de la futura conducción autónoma, un campo en plena ebullición. Con su plataforma Drive IX y su chip Xavier, capitanea un consorcio en el que se han apuntado alrededor de 320 compañías relacionadas con el sector de los vehículos sin conductor; entre ellas, Tesla, Toyota, Audi, Mercedes y la empresa Baidu, conocida como la Google china, con su proyecto Apolo. A pesar de todo ello, la fabricante norteamericana de hardware ha tenido recientemente que torcer el
gesto y decidir, en marzo, suspender sus pruebas de conducción autónoma tras el sonado accidente de un modelo de Uber –a los que suministra los chips– en Tempe (California).
Intel es otra de las multinacionales estrella del sector de los procesadores cada vez más listos. La estrategia del mayor fabricante de circuitos integrados del mundo es única por la diversidad de escenarios y sectores en los que está desarrollando proyectos de IA. Pero es que, además, el gigante estadounidense presentará este año a Loihi, el primer chip neuromórfico del mercado, o sea, capaz de imitar el cerebro humano con sus 130.000 neuronas artificiales y 130 millones de inferencias o sinapsis entre ellas. MIENTRAS TANTO, LA COMPAÑÍA SIGUE HACIENDO GALA DE SU FORTALEZA TECNOLÓGICA: en el Salón del Automóvil de Los Ángeles del pasado mes de diciembre presentó su propia apuesta para automóviles autónomos. En clara competencia con NVIDIA por dominar el mercado de sensores y sistemas de computación para este tipo de coches, Intel anunció EyeQ5, un chip dirigido a modelos de nivel 5, es decir, que no requieren conductor bajo ninguna circunstancia. El nuevo procesador aprovecha las capacidades que la firma obtuvo al adquirir la compañía Mobileye, que desarrolla soluciones avanzadas de detección y procesamiento de imágenes para la industria de la automoción.
Brian Krzanich, director ejecutivo de INTEL, asegura que su solución EyeQ5 ofrece 2,4 veces más poder de computación que el chip rival de NVIDIA. Y para acelerar la implantación de sus microprocesadores en el emergente sector de la conducción autónoma, ha sellado varias alianzas estratégicas; entre ellas, una con Waymo –empresa desarrolladora de vehículos autónomos del conglomerado Alphabet (Google)– y otra con las alemanas BMW y Delphi. El objetivo es que un coche de estas características circule en 2021.
Además, Intel anunció recientemente una importante alianza con el emporio del entretenimiento Warner Bros para brindar nuevas experiencias a los pasajeros a bordo de automóviles sin conductor, que ya no necesitarán prestar atención a la carretera. Como señalaba el comunicado conjunto, Warner Bros “ayudará a Intel a crear contenidos digitales, incluidos los que aprovechan las realidades virtual y aumentada”. El propio Krzanich imagina “a los pasajeros consumiendo vídeos y jugando a juegos de realidad virtual mientras viajan, lo que también abre oportunidades para enviar anuncios a los usuarios”.
El primer ejecutivo de Intel explicaba que, por ejemplo, los amantes
de Batman podrían experimentar la sensación de viajar en el Batmóvil a través de las calles de Gotham. Mientras, los avances en realidad aumentada transformarán los coches en lentes a través de las cuales se podrá observar el mundo exterior, incluida la publicidad y otras experiencias innovadoras.
En Intel creen que la tecnología de sus procesadores podrá asimismo salvar vidas. Porque, de acuerdo con su visión, los sistemas autónomos representan la extensión lógica de los cinturones de seguridad, los airbags y los frenos ABS. Actualmente, los sistemas avanzados de asistencia a la conducción –ADAS, por sus siglas en inglés– ya tienen un impacto considerable en las carreteras. Según datos de la propia Intel, los actuales productos ADAS de Mobileye reducen un 30 % el número de accidentes. Este descenso ha evitado 450.000 colisiones y 1.400 muertes, lo que además ha supuesto un ahorro de 10.000 millones de dólares. El gran objetivo de los sistemas y las soluciones para hacer que el vehículo conduzca solo o casi solo es que la cifra de fallecimientos debidos a la conducción sea igual a cero. OTRO CAMPO EN EL QUE SON TANGIBLES LOS AVANCES DE LA INTELIGENCIA ARTIFICIAL ES EL DE LA IMAGEN. El 30 de noviembre pasado, Intel y Amazon Web Services (AWS) presentaron DeepLens, la primera videocámara inalámbrica completamente programable, preparada para el deep learning o aprendizaje profundo –modalidad más sofisticada del aprendizaje automático– y orientada a desarrolladores. El dispositivo se anunció durante la ponencia del consejero delegado de AWS, Andy Jassy, en su conferencia anual celebrada en Las Vegas.
DeepLens combina una alta capacidad de procesamiento con una interfaz de usuario sencilla para facilitar la creación y el despliegue de modelos en la nube. Impulsada por el procesador Intel Atom x5, con gráficos integrados para dar soporte a la detección y reconocimiento de objetos, DeepLens emplea herramientas y bibliotecas de software de aprendizaje profundo optimizados para ejecutar modelos de visión artificial o por ordenador –es decir, capaces de interpretar lo que ven– en tiempo real y directamente en el dispositivo. Esto reduce los costes y aumenta la velocidad de respuesta.
“Estamos siendo testigos de una nueva ola de innovación a través de los hogares inteligentes, impulsada por los avances en inteligencia artificial y machine learning. DeepLens combinará nuestra amplia experiencia en hardware y software para proporcionar a los desarrolladores una potente herramienta con la que crear nuevas experiencias en este ámbito”, ha declarado Miles Kingston, director general del Grupo Hogar Inteligente de Intel. AHORA SOLO NOS QUEDA COMPROBAR, A MEDIADOS DE ESTE 2018, CUÁL ES EL OBJETIVO Y LAS INTENCIONES DEL CHIP NEUROMÓRFICO LOIHI, en qué aplicaciones y dispositivos se podrá integrar. IBM también tiene pensado fabricar este tipo de procesadores, que, según la consultora Deloitte, querría utilizar el Ejército de los Estados Unidos en diversas aplicaciones de machine learning. En cualquier caso, este tipo de hardware no representará una cifra significativa en el mercado en el año en curso, según datos de la citada consultora con sede en Nueva York.
El tercero en discordia, junto con NVIDIA e Intel, es Qualcomm, asediada en los últimos meses por su contrincante Broadcom para adquirirla de forma hostil, y que se salvó gracias a la intervención del mismísimo Donald Trump. Qualcomm, radicada en San Diego (California), cabalga por el mismo camino que sus dos competidores: el de domi-
Las cámaras con procesadores de IA pueden captar imágenes con luz muy baja e identificar qué están viendo
nar el territorio del cómputo y el procesamiento en los dispositivos inteligentes, sean móviles, asistentes para el hogar o vehículos conectados y autónomos.
Recientemente, la firma tecnológica anunció una nueva línea de chips hechos a medida para cámaras inteligentes en el ámbito del llamado internet de las cosas, concepto que se refiere a la interconexión digital de objetos cotidianos con la Red. Se llama Vision Intelligence Platform y tiene como objetivo obtener funciones de procesamiento con luz muy escasa, estabilización de imagen y visión por ordenador. Y, además, hará todo esto mejor que un microprocesador de teléfono inteligente reutilizado.
Los chips de Qualcomm están diseñados para casi cualquier cámara que pueda hacer uso de características de procesamiento intensivo, como las deportivas, las de seguridad, las de 360 grados e incluso las que llevan los robots. Admiten vídeo de ultra alta definición (4K), flujos múltiples a resoluciones más bajas e imágenes en formato 360, entre otras características. Los dos primeros procesadores de esta plataforma, el QCS605 y el QCS603, están diseñados para cámaras wifi, aunque ninguno es compatible con LTE, estándar de transmisión de datos a alta velocidad. ESTE NO ES EL PRIMER INTENTO DE QUALCOMM DE OFRECER CHIPS PARA CÁMARAS INTELIGENTES, pero antes siempre usaron productos de la plataforma Snapdragon reutilizados. Ahora están específicamente diseñados para esos dispositivos, lo que significa que las futuras generaciones podrían avanzar un poco más rápido.
Y volviendo al campo de la automoción, durante la pasada Feria Internacional de Electrónica de Consumo (CES) de Las Vegas, que se celebró a principios de año, Qualcomm anunció que ampliaba su relación con Ford para realizar pruebas en la segunda mitad de este año con la tecnología Cellular Vehicle-to-Everything (C-V2X) en Estados Unidos y “siempre y cuando las condiciones regulatorias fueran propicias”, como señalaron ambas empresas.
La primera solución de Qualcomm para C-V2X –basada en la conexión de los coches entre sí y con la nube mediante LTE– será el procesador 9150-C-V2X, disponible en la segunda parte de 2018. El plan, tanto de la firma de hardware como de Ford, es que sea el cerebro de algunos de los vehículos que la marca norteamericana producirá y lanzará al mercado en 2019. Mientras tanto, ya se está probando en San Diego y Detroit. QUALCOMM TAMBIÉN INFORMÓ EN ENERO DE ESTE AÑO QUE YA SUMINISTRABA A LA EMPRESA JAGUAR LAND ROVER su plataforma y chip Snapdragon 820Am Automotive. La gran ventaja de esta tecnología es que proporciona una conectividad ultrarrápida en el vehículo gracias a la integración de diferentes tecnologías, como 4G LTE Advanced, wifi y Bluetooth. Y también anunció un acuerdo con la japonesa Honda para que la familia Snapdragon alimente el sistema de información y navegación del modelo automovilístico Accord. Y con la sueca Ericsson, Orange y el grupo automovilístico PSA, ambas en Francia, presentó a finales de febrero un proyecto piloto de 5G en coches conectados, con un objetivo muy claro: mejorar la seguridad vial y los servicios dentro del vehículo.
En fin, parece claro que la inteligencia artificial, impulsada por los fabricantes de procesadores, está tomando por asalto la economía. Un último dato: Goldman Sachs cree que solo en el sector de servicios financieros las oportunidades de nuevos ingresos y de reducción anual de costes se elevarían, por el efecto de la IA, a 43.000 y 34.000 millones de dólares, respectivamente, en 2025. La revolución está en marcha.