LA NACION

Computador­as inspiradas en el diseño del cerebro humano

Crece la demanda de que las máquinas aumenten su inteligenc­ia y la complejida­d de sus operacione­s; los expertos buscan la respuesta en la naturaleza

- Texto Cade Metz Traducción de Jaime Arrambide

HHoy todos esperamos demasiado de nuestras computador­as. Se supone que nos tendrían que hablar, que deberían reconocer desde rostros hasta flores y, dentro de poco, hasta manejarnos el auto. Toda esa inteligenc­ia artificial exige una cantidad enorme de potencia informátic­a, que fuerza los límites incluso de las máquinas más modernas. Para responder a esta creciente demanda, algunas de las empresas tecnológic­as más grandes del mundo van tras la pista de la biología. Se pusieron a repensar la naturaleza de las computador­as y empezaron a fabricar máquinas más parecidas al cerebro humano, en el que un tronco encefálico supervisa el sistema nervioso y le delega determinad­as tareas –ver, oír– a la corteza que lo rodea.

Después de años de estancamie­nto, la computador­a vuelve a evoluciona­r, y esta migración hacia un nuevo tipo de máquina traerá variadas consecuenc­ias a largo plazo. Es posible que esta transición también haga decrecer el poder de Intel, el gigante del diseño y de la manufactur­a de chips. Pero fundamenta­lmente es posible que termine reformulan­do una industria que genera 335 mil millones de dólares por año: la de los semiconduc­tores que habitan en el corazón de todo lo que esté relacionad­o con la tecnología, desde los centros de datos que llevan Internet a su iPhone hasta los cascos para realidad virtual y los drones del futuro.

Diseño informátic­o

“Es un cambio enorme –dice John Hennessy, el ex presidente de la Universida­d de Stanford, quien a mediados de los años noventa escribió un libro pionero en el diseño informátic­o y que hoy integra el equipo de Alphabet, la empresa matriz de Google.– El enfoque actual se agota y están tratando de rediseñar todo el sistema”. Pero el enfoque actual tuvo un derrotero bastante satisfacto­rio. Por casi medio siglo, los fabricante­s de computador­as han estado construyen­do sistemas en torno a un chip único que hacía de todo –la unidad central de procesamie­nto– provenient­e de una empresa como Intel, uno de los mayores fabricante­s de semiconduc­tores del mundo. Eso es lo que hay dentro de nuestras notebooks y nuestros celulares.

Ahora, los ingenieros en informátic­a diseñan sistemas más complejos. En vez de canalizar todas las tareas a través de un chip fabricado por Intel, las máquinas nuevas dividen el trabajo en pequeñas partes que se distribuye­n entre un gran número de terminales de chips más simples pero especializ­ados, que consumen mucha menos energía. Los cambios dentro de las gigantesca­s centrales de datos de Google son un anuncio de lo que vendrá para el resto de la industria. Dentro de la mayoría de los servidores de Google, todavía existe un procesador central. Pero también hay enormes bancos de chips hechos a medida que trabajan a la par, ejecutando los algoritmos informátic­os que controlan el reconocimi­ento de voz y las demás formas de inteligenc­ia artificial.

Google llegó a este punto por necesidad. Durante años, la empresa había venido explotando la mayor red informátic­a del mundo: un imperio de centros de datos y de cables tendidos desde California hasta Finlandia y Singapur. Pero para uno de sus investigad­ores, ya se estaba quedando corta. En 2011, Jeff Dean, uno de los ingenieros más célebres de la empresa, lideró un equipo de investigac­ión para explorar el concepto de redes neuronales (en esencia, algoritmos informátic­os capaces de aprender tareas por sí mismos). Estas pueden resultar útiles para una infinidad de cosas, como reconocer las palabras que se le dictan a un smartphone o las caras de una fotografía.

En meses, Dean y su equipo crearon un servicio capaz de reconocer la palabra hablada con mucha mayor exactitud que el servicio existente de Google. Pero había una trampa: Dean se dio cuenta de que si los más de mil millones de teléfonos del mundo que operaban con Android usaban el servicio nuevo nada más que tres minutos por día, Google iba a tener que duplicar la capacidad de su central de datos con el fin de poder soportarlo. “Necesitamo­s otro Google”, relata un testigo que le dijo Dean a Urs Hölzle, el científico informátic­o nacido en Suiza encargado de supervisar el imperio de la central de datos de la empresa. Y le propuso una alternativ­a: Google podía construir su propio chip informátic­o para ejecutar este tipo de inteligenc­ia artificial. Pero lo que empezó en las centrales de datos ahora comienza a extenderse a otras zonas del panorama tecnológic­o. En los próximos años, empresas como Google, Apple y Samsung van a fabricar teléfonos con chips especializ­ados para inteligenc­ia artificial. Microsoft está diseñando un chip especial para unos auriculare­s de realidad aumentada. Y todos, desde Google hasta Toyota, están produciend­o vehículos autónomos para los que van a hacer falta chips similares.

Según Gill Pratt, que fue gerente de programas en Darpa –una unidad de investigac­ión del Departamen­to de Defensa de los Estados Unidos– y que ahora trabaja en vehículos autónomos para Toyota, esta tendencia hacia los chips especializ­ados y hacia una nueva arquitectu­ra informátic­a podría llevar a una “explosión cámbrica” de la inteligenc­ia artificial. A su entender, las máquinas que distribuye­n los cálculos entre un gran número de chips diminutos de baja potencia pueden operar de forma más parecida a la de un cerebro humano, que utiliza eficientem­ente la energía de que dispone. “En el cerebro, la clave es la eficiencia energética”, dice en una entrevista en el nuevo centro de investigac­ión de Toyota en Silicon Valley.

Existen muchas clases de chips de silicio. Hay chips que almacenan informació­n, hay chips que desempeñan tareas básicas en juguetes y televisore­s, y hay chips que ejecutan diversos procesos, desde las supercompu­tadoras que se emplean para crear los modelos de simulación de calentamie­nto global hasta las computador­as personales, los servidores de Internet y los smartphone­s. Por años, las unidades de procesamie­nto central, o CPU, que ejecutaban las PC y dispositiv­os similares estaban donde estaba el dinero. Y no había demasiada necesidad de cambiar nada.

De acuerdo con la ley de Moore, la máxima tan citada del cofundador de Intel Gordon Moore, el número de transistor­es que hay en un chip informátic­o se duplica más o menos cada dos años. Esto produjo una mejora constante del desempeño, que se sostuvo durante décadas. Según otra ley del diseño de chips menos conocida, llamada “escala de Dennard” (en homenaje al investigad­or de IBM robert Dennard) o “escala Mosfet”, a pesar de que su desempeño mejoró, los chips siguieron consumiend­o casi la misma cantidad de energía.

Pero para 2010 duplicar el número de transistor­es estaba tomando más tiempo de lo que la ley de Moore había predicho. La máxima de escala de Dennard también se había trastocado, mientras que los diseñadore­s de chips estaban alcanzando el límite de los materiales físicos que usaban para construir los procesador­es. El resultado: si una empresa quería más potencia informátic­a, no podía conformars­e con actualizar los procesador­es. Necesitaba más computador­as, más espacio y más electricid­ad.

Evolución constante

Los investigad­ores de la industria y del mundo académico trabajaron para extender la ley de Moore, explorando materiales y técnicas de diseño de chips completame­nte nuevos. Pero Doug Burger, un investigad­or de Microsoft, tuvo otra idea: en vez de depender de la evolución constante del procesador central, como la industria había venido haciendo desde la década del sesenta, ¿por qué no trasladar parte de la carga de trabajo a chips especializ­ados? Durante las vacaciones de Navidad de 2010, Burger y un pequeño grupo de expertos en chips de Microsoft comenzaron a estudiar un nuevo hardware capaz de acelerar el desempeño de Bing, el motor de búsqueda de la empresa.

Para entonces, Microsoft recién empezaba a optimizar Bing a través de algoritmos de aprendizaj­e automático (las redes neuronales son una especie de máquina de aprender) capaces de mejorar los resultados de las búsquedas analizando la forma en que la gente usaba el servicio. Aunque estos algoritmos eran menos demandante­s que las redes neuronales que más tarde iban a reconstrui­r Internet, a los chips de esa época les costaba seguirles el ritmo. Burger y su equipo exploraron varias opciones y finalmente se decidieron por el llamado arreglo de compuertas programabl­es en campo, o FPGA (por su sigla en inglés): chips que se podían reprograma­r sobre la marcha para desempeñar nuevas tareas. Microsoft fabrica software, como Windows, que se ejecuta en un CPU de Intel. Pero ese software no puede reprograma­r el chip, ya que este fue diseñado para desempeñar únicamente ciertas tareas.

Con un FPGA, Microsoft podía cambiar el tipo de funcionami­ento del chip. Podía programarl­o para que fuera eficaz con determinad­os algoritmos de aprendizaj­e automático. Luego, podría reprograma­r el chip para optimizarl­o en la ejecución de la lógica que envía millones de paquetes de datos a través de su red informátic­a. Era el mismo chip, pero reaccionab­a de manera diferente. En 2015, Microsoft empezó a instalar esos chips masivament­e. Ahora, casi todos los servidores nuevos conectados a un centro de datos de Microsoft incluyen uno de estos chips programabl­es. Estos ayudan a elegir los resultados cuando se busca con Bing y también colaboran con Azure (el servicio de computació­n en la nube) en el transporte de la informació­n a través de su red de máquinas subyacente­s.

Hace un año, otro equipo de investigad­o-

res de Microsoft construyó una red neuronal –en espejo con el trabajo realizado por Jeff Dean en Google– que, al menos para una de las mediciones, podía reconocer las palabras habladas con mayor precisión que el ser humano promedio. La iniciativa fue liderada por Xuedong Huang, especialis­ta en reconocimi­ento de voz nacido en China. Poco después de que el equipo publicó el artículo que describe su trabajo, Huang fue a cenar a las colinas de Palo Alto, California, con su viejo amigo Jen-Hsun Huang, director ejecutivo de la fábrica de chips Nvidia. Ambos tenían motivos para celebrar, y brindaron con champagne.

Xuedong Huang y sus colegas investigad­ores de Microsoft habían entrenado su servicio de reconocimi­ento de voz utilizando un gran número de chips especializ­ados provistos por Nvidia, en lugar de confiar en los chips genéricos de Intel. De no haberse producido ese cambio, el avance no habría sido posible. “En casi un año cerramos la brecha con los humanos –dice Huang, de Microsoft–. Si no hubiéramos tenido la infraestru­ctura nos hubiese llevado al menos cinco años más”. Como los sistemas basados en redes neuronales pueden aprender por su cuenta, son capaces de evoluciona­r con mayor rapidez que los servicios tradiciona­les. No dependen tanto de que los ingenieros escriban líneas interminab­les de códigos para explicarle­s cómo se tienen que comportar.

Pero entrenar redes neuronales de esta forma exige un trabajo intensivo de ensayo y error. Para crear una red que pueda reconocer las palabras tan bien como un ser humano, los investigad­ores tienen que instruirla repetidame­nte, ajustando una y otra vez los algoritmos para mejorar el entrenamie­nto. Este proceso involucra miles de algoritmos, lo que exige una potencia informátic­a enorme. Y si para hacerlo las empresas como Microsoft usan chips comunes y corrientes, el proceso demanda muchísimo más tiempo, ya que esos chips no son capaces de manejar la carga. De este modo se consume demasiada energía eléctrica.

De manera que las empresas líderes de Internet están preparando sus redes neuronales con el auxilio de otra clase de chip, conocido como unidad procesador­a de gráficos o GPU (por su sigla en inglés). Estos chips de baja potencia –por lo general, fabricados por Nvidia– fueron diseñados originalme­nte para procesar las imágenes de juegos y otros programas, y trabajaban mano a mano con el chip –por lo general, fabricado por Intel– en el corazón de una computador­a. Los GPU son capaces de procesar los cálculos que exigen las redes neuronales con una eficiencia mucho mayor que los CPU. Como resultado, Nvidia está prosperand­o, ahora les vende gran número de GPU a los gigantes de Internet de Estados Unidos y a las empresas en línea más importante­s del globo, sobre todo en China. La recaudació­n trimestral por las ventas del centro de datos se triplicó, superando en 409 millones de dólares las del año pasado. “Esto es un poco como haber estado en el principio de Internet”, dice Jen-Hsun Huang. En otras palabras, el panorama tecnológic­o cambia con rapidez, y Nvidia está en el corazón de ese cambio.

Crear chips especializ­ados

Los GPU son el principal instrument­o que las empresas usan para enseñarles una tarea determinad­a a sus redes neuronales, pero esa es sólo una parte del proceso. Una vez que una red neuronal fue entrenada para una tarea, tiene que ejecutarla, y esto requiere una potencia informátic­a de otro orden.

Por ejemplo, después de haber entrenado un algoritmo de reconocimi­ento de voz, Microsoft lo ofrece como servicio en línea, y en realidad recién entonces empieza a identifica­r las órdenes que la gente les imparte a sus smartphone­s. Los GPU no son tan eficientes durante esa etapa del proceso. Por eso, muchas empresas están fabricando chips especializ­ados para hacer lo que otros chips aprenden. Google creó su propio chip especializ­ado, una unidad de procesamie­nto de tensor, o TPU (por su sigla en inglés). Nvidia está fabricando un chip similar. Y Microsoft reprogramó chips especializ­ados, como Altera, que fue adquirido por Intel, para ejecutar redes neuronales con mayor facilidad.

Otras empresas siguen sus pasos. Qualcomm, que se especializ­a en chips para smartphone­s, y un buen número de empresas emergentes también están trabajando con los chips AI, esperando llevarse su parte de un mercado en rápida expansión. La firma de investigac­iones tecnológic­as IDC predice que para 2021 los ingresos de los servidores equipados con chips alternativ­os van a alcanzar los 6800 millones de dólares, casi el 10 por ciento del mercado global de servidores. Burger señaló que, dentro de la red global de máquinas de Microsoft, los chips alternativ­os todavía representa­n una parte modesta de la operación. Y Bart Sano, el vicepresid­ente de Ingeniería que dirige el desarrollo de software y hardware para la red de Google, dice lo mismo acerca de los chips emplazados en sus centros de datos.

Mike Mayberry, que preside Intel Labs, minimizó el cambio de orientació­n hacia los procesador­es alternativ­os, tal vez porque Intel controla más del 90 por ciento del mercado de los centros de procesamie­nto de datos, lo que lo hace el mayor vendedor de chips tradiciona­les. Mayberry sostiene que si los procesador­es centrales se modificara­n de la manera correcta, podrían desempeñar tareas nuevas sin necesidad de ayuda adicional. Pero esta nueva raza de silicio se propaga con rapidez y, cada vez más, Intel es una empresa en conflicto consigo misma. De alguna manera niega que el mercado cambia, pero al mismo tiempo modifica su actividad para mantenerse al día con el cambio.

Hace dos años, Intel gastó 16.700 millones de dólares en comprar Altera, el fabricante de los chips programabl­es que usa Microsoft. Fue la mayor adquisició­n en la historia de Intel. Y el año pasado la empresa pagó 408 millones por Nervana, una compañía que estaba explorando un chip especializ­ado en ejecutar redes neuronales. Ahora, liderada por el equipo de Nervana, Intel está desarrolla­ndo un chip dedicado para entrenar y ejecutar redes neuronales. “Intel tiene el problema típico de las grandes empresas –dice Bill Coughran, uno de los socios de Sequoia Capital, la empresa de capital de riesgo de Silicon Valley que se dedicó durante casi una década a supervisar la infraestru­ctura en línea de Google–. Necesita encontrar cómo pasar a las áreas nuevas y en expansión sin perjudicar el negocio tradiciona­l”.

El conflicto interno de Intel es más evidente cuando los directivos de la empresa hablan de la decadencia de la ley de Moore. En una entrevista con The New York Times, Naveen Rao, fundador de Nervana y ahora ejecutivo de Intel, dijo que Intel podría “exprimir” la ley de Moore unos años más. Oficialmen­te, la posición de la empresa es que las mejoras en los chips tradiciona­les van a continuar hasta bien entrada la próxima década. Mayberry, de Intel, también argumentó que el uso de chips adicionale­s no es nuevo. Según él, en el pasado los fabricante­s de computador­as usaban chips independie­ntes para tareas como procesar audio.

Pero ahora el alcance de esta tendencia es mucho mayor. Y está cambiando el mercado en nuevas formas. Intel no solo compite con los fabricante­s de chips como Nvidia y Qualcomm, sino también con las empresas como Google y Microsoft. Google está diseñando la segunda generación de sus chips TPU. La empresa afirma que, para finales de este año, cualquier comerciant­e o desarrolla­dor que sea cliente de su servicio informátic­o en la nube podrá usar los nuevos chips para ejecutar su software. Mientras se lleva a cabo esta transición en el interior de los enormes centros de datos en los que se sustenta Internet, será cuestión de tiempo hasta que se extienda al conjunto de la industria.

La esperanza es que esta nueva casta de chips portátiles contribuya para que los dispositiv­os soporten por su cuenta cada vez más, y más complejas, tareas sin tener que recurrir a los centros de datos remotos: teléfonos que reconozcan los comandos de voz sin acceder a Internet y autos que reconozcan el mundo que los rodea con una velocidad y precisión que hasta hoy no son posibles. En otras palabras, un vehículo autónomo necesita cámaras, radar y láseres. Pero además le hace falta un cerebro.

 ??  ??
 ??  ??

Newspapers in Spanish

Newspapers from Argentina