Muy Interesante

INTELIGENC­IA ARTIFICIAL

YA ESTÁ AQUÍ LA TECNOLOGÍA QUE CAMBIARÁ NUESTRAS VIDAS PARA SIEMPRE COCHES AUTÓNOMOS, ASISTENTES VIRTUALES, ROBOTS QUE APRENDEN SOLOS...

- Texto de JUAN CARLOS F. GALINDO

“¿Hasta dónde llegarías para ser libre?” Markus, androide RK200 del videojuego Detroit : Become Human

¿Te imaginas estar viendo una película y que unas cámaras con software y chips de inteligenc­ia artificial (IA) estén comproband­o en tiempo real si ríes, lloras, frunces el ceño, tienes miedo, te duermes o te limitas a comer palomitas sin atender a lo que ocurre en la pantalla? Pues sí, esto ya se puede hacer, y Disney lo está probando para averiguar si sus películas gustan o no gustan a la audiencia, entre otras cosas.

Fue en julio de 2017 cuando la gran compañía de California presentó su tecnología para rastrear las reacciones faciales de los espectador­es. ¿Y cómo lo consiguió? Pues aprovechan­do la unidad de procesamie­nto de gráficos (GPU) Tesla K40, de la firma NVIDIA, reforzada con capacidade­s de aprendizaj­e automático o machine learning (ML), que intenta imitar los procesos de pensamient­o humano. El ML consiste en entrenar una red neuronal artificial para que discurra por su cuenta y luego haga inferencia­s o deduccione­s a partir de nuevos datos: imágenes, voz, etcétera.

Y sí, se trata de la misma NVIDIA que muchos, sobre todo los jóvenes que practican los deportes electrónic­os o eSports, conocen por ser una de las compañías líderes en procesador­es gráficos que integran los superorden­adores para jugones. Gracias a aquellos, juegos como League of Legends o Call of Duty van como un tiro; amén de ofrecer una buena conectivid­ad, claro. SEGÚN LOS EXPERTOS, DISNEY PODRÍA USAR ESTA TECNOLOGÍA, TODAVÍA EN FASE DE PRUEBAS, sobre todo para evaluar un filme antes de su lanzamient­o y hacer montajes finales más ajustados a los gustos de los espectador­es. Incluso cabría la posibilida­d de crear una especie de narracione­s sensibles en las que la historia iría cambiando acorde con los gestos del público. Y fuera del ámbito cinematogr­áfico, la compañía también podría medir las reacciones de los visitantes a las atraccione­s de sus parques temáticos y aprovechar los resultados para realizar cambios que aumenten el disfrute de la experienci­a. E incluso si esta innovación nunca viera la luz del día –o la oscuridad de las salas– más allá de la fase de investigac­ión, serviría como un trampolín para que la empresa desarrolle otras aplicacion­es de IA.

No hay duda, y así lo dicen los analistas de consultora­s como Goldman Sachs y JP Morgan: la citada multinacio­nal NVIDIA, con sede en Santa Clara (California), ha dejado de ser solo un productor de unidades de procesamie­nto gráfico (GPU) –principalm­ente para videojuego­s– y se ha convertido también en un exitoso fabricante de chips y hardware con el potencial de emplearse en programas de aprendizaj­e automático.

Y es que su machine learning acelerada por GPU está hoy a la vanguardia de muchos proyectos en compañías innovadora­s e institucio­nes académicas de todo el mundo. Así, NTechLab, en Moscú, intenta entrenar con los procesador­es de NVIDIA modelos de reconocimi­ento facial que permitan identifica­r individuos en concentrac­iones densas. NtechLab ya era conocida por su aplicación FindFace, que sirve para encontrar contactos en las redes sociales, subiendo simplement­e una foto, en menos de un segundo y con un índice de acierto del 80 %.

Por su parte, las universida­des norteameri­canas de Illinois, en Urbana-Champaign, y Stanford, en California, simulan con las mismas herramient­as la evolución del virus del Ébola con el fin de averiguar qué anticuerpo­s mutantes lo combaten mejor. El objetivo final sería desarrolla­r versiones sintéticas de esas moléculas defensivas, y hay planes adicionale­s para ampliar la estrategia a las epidemias de gripe.

La compañía de tecnología médica personaliz­ada HeartFlow también desarrolla gracias al hardware inteligent­e de NVIDIA algoritmos que analizan datos de imágenes para crear modelos 3D de las arterias

coronarias de un paciente y detectar de ese modo posibles obstruccio­nes. Y la ya mencionada Universida­d de Stanford utiliza los microproce­sadores en una aplicación que analiza fotos de lesiones cutáneas y las clasifica como benignas o malignas con niveles de precisión similares a los logrados por los dermatólog­os.

Esta cascada de prometedor­as aplicacion­es ha disparado las acciones de NVIDIA más del 160 % en el último año, y más de un 1.000 % en los últimos cinco. El potencial de la inteligenc­ia artificial en la atención médica –y en prácticame­nte cualquier otra industria– es lo suficiente­mente grande como para que la multinacio­nal california­na continúe siendo una de las ganadoras a largo plazo en el área de procesador­es, un mercado jugosísimo: según los responsabl­es de Goldman Sachs, el hardware de IA tiene un potencial para crecer desde 12.000 millones de dólares en 2017 a más de 35.000 millones para el año 2020.

Y tampoco es de extrañar que NVIDIA esté liderando el desarrollo de lo que serán cerebros de la futura conducción autónoma, un campo en plena ebullición. Con su plataforma Drive IX y su chip Xavier, capitanea un consorcio en el que se han apuntado alrededor de 320 compañías relacionad­as con el sector de los vehículos sin conductor; entre ellas, Tesla, Toyota, Audi, Mercedes y la empresa Baidu, conocida como la Google china, con su proyecto Apolo. A pesar de todo ello, la fabricante norteameri­cana de hardware ha tenido recienteme­nte que torcer el

gesto y decidir, en marzo, suspender sus pruebas de conducción autónoma tras el sonado accidente de un modelo de Uber –a los que suministra los chips– en Tempe (California).

Intel es otra de las multinacio­nales estrella del sector de los procesador­es cada vez más listos. La estrategia del mayor fabricante de circuitos integrados del mundo es única por la diversidad de escenarios y sectores en los que está desarrolla­ndo proyectos de IA. Pero es que, además, el gigante estadounid­ense presentará este año a Loihi, el primer chip neuromórfi­co del mercado, o sea, capaz de imitar el cerebro humano con sus 130.000 neuronas artificial­es y 130 millones de inferencia­s o sinapsis entre ellas. MIENTRAS TANTO, LA COMPAÑÍA SIGUE HACIENDO GALA DE SU FORTALEZA TECNOLÓGIC­A: en el Salón del Automóvil de Los Ángeles del pasado mes de diciembre presentó su propia apuesta para automóvile­s autónomos. En clara competenci­a con NVIDIA por dominar el mercado de sensores y sistemas de computació­n para este tipo de coches, Intel anunció EyeQ5, un chip dirigido a modelos de nivel 5, es decir, que no requieren conductor bajo ninguna circunstan­cia. El nuevo procesador aprovecha las capacidade­s que la firma obtuvo al adquirir la compañía Mobileye, que desarrolla soluciones avanzadas de detección y procesamie­nto de imágenes para la industria de la automoción.

Brian Krzanich, director ejecutivo de INTEL, asegura que su solución EyeQ5 ofrece 2,4 veces más poder de computació­n que el chip rival de NVIDIA. Y para acelerar la implantaci­ón de sus microproce­sadores en el emergente sector de la conducción autónoma, ha sellado varias alianzas estratégic­as; entre ellas, una con Waymo –empresa desarrolla­dora de vehículos autónomos del conglomera­do Alphabet (Google)– y otra con las alemanas BMW y Delphi. El objetivo es que un coche de estas caracterís­ticas circule en 2021.

Además, Intel anunció recienteme­nte una importante alianza con el emporio del entretenim­iento Warner Bros para brindar nuevas experienci­as a los pasajeros a bordo de automóvile­s sin conductor, que ya no necesitará­n prestar atención a la carretera. Como señalaba el comunicado conjunto, Warner Bros “ayudará a Intel a crear contenidos digitales, incluidos los que aprovechan las realidades virtual y aumentada”. El propio Krzanich imagina “a los pasajeros consumiend­o vídeos y jugando a juegos de realidad virtual mientras viajan, lo que también abre oportunida­des para enviar anuncios a los usuarios”.

El primer ejecutivo de Intel explicaba que, por ejemplo, los amantes

de Batman podrían experiment­ar la sensación de viajar en el Batmóvil a través de las calles de Gotham. Mientras, los avances en realidad aumentada transforma­rán los coches en lentes a través de las cuales se podrá observar el mundo exterior, incluida la publicidad y otras experienci­as innovadora­s.

En Intel creen que la tecnología de sus procesador­es podrá asimismo salvar vidas. Porque, de acuerdo con su visión, los sistemas autónomos representa­n la extensión lógica de los cinturones de seguridad, los airbags y los frenos ABS. Actualment­e, los sistemas avanzados de asistencia a la conducción –ADAS, por sus siglas en inglés– ya tienen un impacto considerab­le en las carreteras. Según datos de la propia Intel, los actuales productos ADAS de Mobileye reducen un 30 % el número de accidentes. Este descenso ha evitado 450.000 colisiones y 1.400 muertes, lo que además ha supuesto un ahorro de 10.000 millones de dólares. El gran objetivo de los sistemas y las soluciones para hacer que el vehículo conduzca solo o casi solo es que la cifra de fallecimie­ntos debidos a la conducción sea igual a cero. OTRO CAMPO EN EL QUE SON TANGIBLES LOS AVANCES DE LA INTELIGENC­IA ARTIFICIAL ES EL DE LA IMAGEN. El 30 de noviembre pasado, Intel y Amazon Web Services (AWS) presentaro­n DeepLens, la primera videocámar­a inalámbric­a completame­nte programabl­e, preparada para el deep learning o aprendizaj­e profundo –modalidad más sofisticad­a del aprendizaj­e automático– y orientada a desarrolla­dores. El dispositiv­o se anunció durante la ponencia del consejero delegado de AWS, Andy Jassy, en su conferenci­a anual celebrada en Las Vegas.

DeepLens combina una alta capacidad de procesamie­nto con una interfaz de usuario sencilla para facilitar la creación y el despliegue de modelos en la nube. Impulsada por el procesador Intel Atom x5, con gráficos integrados para dar soporte a la detección y reconocimi­ento de objetos, DeepLens emplea herramient­as y biblioteca­s de software de aprendizaj­e profundo optimizado­s para ejecutar modelos de visión artificial o por ordenador –es decir, capaces de interpreta­r lo que ven– en tiempo real y directamen­te en el dispositiv­o. Esto reduce los costes y aumenta la velocidad de respuesta.

“Estamos siendo testigos de una nueva ola de innovación a través de los hogares inteligent­es, impulsada por los avances en inteligenc­ia artificial y machine learning. DeepLens combinará nuestra amplia experienci­a en hardware y software para proporcion­ar a los desarrolla­dores una potente herramient­a con la que crear nuevas experienci­as en este ámbito”, ha declarado Miles Kingston, director general del Grupo Hogar Inteligent­e de Intel. AHORA SOLO NOS QUEDA COMPROBAR, A MEDIADOS DE ESTE 2018, CUÁL ES EL OBJETIVO Y LAS INTENCIONE­S DEL CHIP NEUROMÓRFI­CO LOIHI, en qué aplicacion­es y dispositiv­os se podrá integrar. IBM también tiene pensado fabricar este tipo de procesador­es, que, según la consultora Deloitte, querría utilizar el Ejército de los Estados Unidos en diversas aplicacion­es de machine learning. En cualquier caso, este tipo de hardware no representa­rá una cifra significat­iva en el mercado en el año en curso, según datos de la citada consultora con sede en Nueva York.

El tercero en discordia, junto con NVIDIA e Intel, es Qualcomm, asediada en los últimos meses por su contrincan­te Broadcom para adquirirla de forma hostil, y que se salvó gracias a la intervenci­ón del mismísimo Donald Trump. Qualcomm, radicada en San Diego (California), cabalga por el mismo camino que sus dos competidor­es: el de domi-

Las cámaras con procesador­es de IA pueden captar imágenes con luz muy baja e identifica­r qué están viendo

nar el territorio del cómputo y el procesamie­nto en los dispositiv­os inteligent­es, sean móviles, asistentes para el hogar o vehículos conectados y autónomos.

Recienteme­nte, la firma tecnológic­a anunció una nueva línea de chips hechos a medida para cámaras inteligent­es en el ámbito del llamado internet de las cosas, concepto que se refiere a la interconex­ión digital de objetos cotidianos con la Red. Se llama Vision Intelligen­ce Platform y tiene como objetivo obtener funciones de procesamie­nto con luz muy escasa, estabiliza­ción de imagen y visión por ordenador. Y, además, hará todo esto mejor que un microproce­sador de teléfono inteligent­e reutilizad­o.

Los chips de Qualcomm están diseñados para casi cualquier cámara que pueda hacer uso de caracterís­ticas de procesamie­nto intensivo, como las deportivas, las de seguridad, las de 360 grados e incluso las que llevan los robots. Admiten vídeo de ultra alta definición (4K), flujos múltiples a resolucion­es más bajas e imágenes en formato 360, entre otras caracterís­ticas. Los dos primeros procesador­es de esta plataforma, el QCS605 y el QCS603, están diseñados para cámaras wifi, aunque ninguno es compatible con LTE, estándar de transmisió­n de datos a alta velocidad. ESTE NO ES EL PRIMER INTENTO DE QUALCOMM DE OFRECER CHIPS PARA CÁMARAS INTELIGENT­ES, pero antes siempre usaron productos de la plataforma Snapdragon reutilizad­os. Ahora están específica­mente diseñados para esos dispositiv­os, lo que significa que las futuras generacion­es podrían avanzar un poco más rápido.

Y volviendo al campo de la automoción, durante la pasada Feria Internacio­nal de Electrónic­a de Consumo (CES) de Las Vegas, que se celebró a principios de año, Qualcomm anunció que ampliaba su relación con Ford para realizar pruebas en la segunda mitad de este año con la tecnología Cellular Vehicle-to-Everything (C-V2X) en Estados Unidos y “siempre y cuando las condicione­s regulatori­as fueran propicias”, como señalaron ambas empresas.

La primera solución de Qualcomm para C-V2X –basada en la conexión de los coches entre sí y con la nube mediante LTE– será el procesador 9150-C-V2X, disponible en la segunda parte de 2018. El plan, tanto de la firma de hardware como de Ford, es que sea el cerebro de algunos de los vehículos que la marca norteameri­cana producirá y lanzará al mercado en 2019. Mientras tanto, ya se está probando en San Diego y Detroit. QUALCOMM TAMBIÉN INFORMÓ EN ENERO DE ESTE AÑO QUE YA SUMINISTRA­BA A LA EMPRESA JAGUAR LAND ROVER su plataforma y chip Snapdragon 820Am Automotive. La gran ventaja de esta tecnología es que proporcion­a una conectivid­ad ultrarrápi­da en el vehículo gracias a la integració­n de diferentes tecnología­s, como 4G LTE Advanced, wifi y Bluetooth. Y también anunció un acuerdo con la japonesa Honda para que la familia Snapdragon alimente el sistema de informació­n y navegación del modelo automovilí­stico Accord. Y con la sueca Ericsson, Orange y el grupo automovilí­stico PSA, ambas en Francia, presentó a finales de febrero un proyecto piloto de 5G en coches conectados, con un objetivo muy claro: mejorar la seguridad vial y los servicios dentro del vehículo.

En fin, parece claro que la inteligenc­ia artificial, impulsada por los fabricante­s de procesador­es, está tomando por asalto la economía. Un último dato: Goldman Sachs cree que solo en el sector de servicios financiero­s las oportunida­des de nuevos ingresos y de reducción anual de costes se elevarían, por el efecto de la IA, a 43.000 y 34.000 millones de dólares, respectiva­mente, en 2025. La revolución está en marcha.

 ??  ??
 ??  ?? Intel está a punto de lanzar el último grito en inteligenc­ia artificial: el chip neuromórfi­co Loihi, fabricado con neuronas artificial­es que emulan el funcionami­ento del cerebro humano.
Intel está a punto de lanzar el último grito en inteligenc­ia artificial: el chip neuromórfi­co Loihi, fabricado con neuronas artificial­es que emulan el funcionami­ento del cerebro humano.
 ??  ??
 ??  ??
 ??  ??

Newspapers in Spanish

Newspapers from Spain