La Razón (1ª Edición)

LA GUERRA DE LOS CHIPS

Los procesador­es se han vuelto protagonis­tas indirectos de la batalla por reinar la Inteligenc­ia Artificial

- Arantxa Herranz.

EnEn la carrera por liderar la informátic­a en la nube y el desarrollo de la inteligenc­ia artificial (espe-cialmente (espe-cialmente la aplicada a los negocios), subyace otra guerra más allá de la de tener el modelo de lenguaje (LLM) que sustente la IA del futuro: la de tener los procesador­es más preparados y optimizado­s para hacer frente a las enormes cargas de trabajo que el tratamient­o y generación de todos estos datos conlleva.

No en vano, para que la IA (también la generativa) pueda procesar y gestionar todos estos datos y algoritmos, necesita habitar en grandes máquinas de hardware en la que los procesador­es deben no solo ser rápidos, sino estar especial-mente especial-mente preparados para estas cargas de trabajo.

Por eso, los procesador­es se han vuelto protagonis­tas in-directos in-directos de esta batalla por reinar la Inteligenc­ia Artificial. A primera vista, una compañía parece haber tomado la delan-tera. delan-tera. Una compañía que, además, no sería la primera en acudir a la mente cuando pensamos en procesador­es (o CPU, unidad de procesamie­nto central). Se trata de nvidia, una compañía, tradiciona­lmente asociada con el mundo de las tarjetas gráficas y que está viviendo una segunda juventud gracias a la IA. No en vano, nvidia ha sido siempre una de las principale­s compañías en liderar el mercado de las GPU (unidad de procesamie­nto gráfico), que son un procesador especializ­ado que se diseñó originalme­nte para manipular los gráficos de un ordenador. Su estructura paralela los con-vierte con-vierte en ideales para los algoritmos que procesan grandes bloques de datos que suelen encontrars­e en las cargas de trabajo de IA.

De hecho, sus acciones no dejan de subir en bolsa (muy por encima de la media de otros valores) y su valorizaci­ón no deja de multiplica­rse. El 19 de enero de este año, sin ir más lejos, tocaba su máximo histórico (594,91 dólares por acción), superando los 1469 millones de dólares de cotización), su-perando su-perando a otras tecnológic­as como Meta (propietari­a de Facebook) o Tesla.

Para entender bien la trascenden­cia que están adquirien-do adquirien-do los procesador­es en la era de la IA, podemos mirar cómo funciona CHATGPT. Esta herramient­a requiere enormes cantidades de potencia de procesamie­nto para poder res-ponder, res-ponder, y a esa velocidad, a las peticiones de los usuarios. CHATGPT trabaja con GPT-4, la cuarta versión del modelo multimodal grande desarrolla­dor por Openai. GPT-4 ha sido entrenado con 170.000 millones de parámetros, lo que hace que sus respuestas suenen aún más genuinas y huma-nas huma-nas que la versión anterior. Aunque Openai no cotiza en bolsa por lo que la informació­n no siempre es pública, el banco UBS calcula que CHATGPT utiliza 10.000 unidades de procesamie­nto gráfico (GPU) de nvidia para funcionar y que estaría preparado para admitir miles más a medida que el modelo se vuelva más sofisticad­o y crezca el número de usuarios activos.

Openai no es la única compañía que está confiando en nvidia para dar energía a sus modelos de IA, algo que hará que, muy probableme­nte, probableme­nte, Intel (una de las principale­s principale­s compañías de procesador­es del mundo, con cerca de un 70% de cuota de mercado en ordenadore­s ordenadore­s y portátiles y otro tanto en servidores) pierda su trono en Estados Estados Unidos como la firma de procesador­es que más factura (a nivel mundial ya se vio superada por TSMC hace años).

Es decir, que nvidia se ha convertido convertido en el rey de un sector adyacente adyacente al de los procesador­es centrales, dominado por Intel. Los chips gráficos de nvidia, utilizados para acelerar las aplicacion­es de IA, han reavivado el mercado de los centros de datos con una nueva nueva dinámica.

Con los datos en la mano, Intel sigue dominando el mercado mundial de procesador­es para servidores con su familia Xeon. Hace cinco años, AMD (principal competenci­a de Intel en chips para PC) decidió volver a entrar en este lucrativo y creciente mercado de servidores tras varios años de ausencia. En este corto periodo de tiempo, la compañía ha logrado capturar el 23% del mercado (casi uno de cada cuatro servidores), según los datos de Mercury Research. Research.

Y, aunque a menor escala, los procesador­es Arm (que tradiciona­lmente tradiciona­lmente han tenido su principal mercado en dispositiv­os móviles, como smartphone­s y tablets), también demostraro­n su utilidad para algunas cargas de trabajo y ya tienen más del 8% del mercado.

Hoy en día, sin embargo, la historia historia de los centros de datos gira en torno a las unidades de procesamie­nto procesamie­nto gráfico (GPU), y las de nvidia se han convertido en las favoritas para las aplicacion­es de IA. Tanto que las ventas de GPU crecen a un ritmo mucho mayor que el de los chips de CPU para servidores.

Procesador­es propios

Todo esto está conllevand­o que los grandes hiperescal­ares (los grandes grandes proveedore­s de nube, capaz de ofrecer servicios como informátic­a informátic­a o almacenami­ento a gran escala) están empezando a desarrolla­r desarrolla­r sus propios procesador­es para sus cargas de trabajo.

Microsoft anunciaba recienteme­nte recienteme­nte dos chips diseñados a medida: medida: el acelerador de IA Microsoft Azure Maia y la CPU Microsoft Azure Cobalt, un procesador basado basado en Arm diseñado para ejecutar ejecutar cargas de trabajo de computació­n computació­n de propósito general en la nube de Microsoft. Los chips comenzarán comenzarán a desplegars­e a principios principios del próximo año en los centros centros de datos de Microsoft, alimentand­o inicialmen­te servicios servicios de la compañía como Microsoft Microsoft Copilot o Azure Openai Service. Service.

Fuentes de Microsoft aseguran a La Razón que, además de apoyarse apoyarse en partners «clave en la industria» industria» (como AMD, Intel o nvidia), nvidia), « desarrolla­mos nuestros propios procesador­es, atendiendo a las particular­idades de nuestra infraestru­ctura», «optimizand­o cada capa del conjunto de hardware hardware y software para maximizar el rendimient­o y la eficiencia». El objetivo de esta estrategia es, según según estas mismas fuentes, «maximizar «maximizar el rendimient­o, diversific­ar el riesgo de la cadena de suministro suministro y brindar a los clientes multitud de opciones de infraestru­ctura que den respuesta a sus necesidade­s. necesidade­s. Al trabajar de esta manera, buscamos ofrecer las funcionali­dades funcionali­dades de la IA y de la nube a nuestros nuestros clientes en las mejores condicione­s condicione­s posibles».

«Con las últimas generacion­es de procesador­es, construido­s con aceleració­n de IA en cada núcleo, conseguimo­s dar un salto significat­ivo significat­ivo en rendimient­o y eficiencia para las cargas de trabajo críticas de IA, redes, seguridad, almacenami­ento almacenami­ento y computació­n de alto rendimient­o en el centro de datos y en la nube», insisten estas mismas mismas fuentes.

Mientras, en Google defienden que «las formas tradiciona­les de diseñar y construir infraestru­cturas infraestru­cturas informátic­as ya no son adecuadas adecuadas para las demandas exponencia­lmente exponencia­lmente crecientes de cargas de trabajo como la IA generativa y los LLM». Por eso, recienteme­nte anunciaban dos novedades: Cloud Cloud TPU v5p, el acelerador de IA «más potente, escalable y flexible hasta la fecha» que habían desarrolla­do, desarrolla­do, así como AI Hypercompu­ter Hypercompu­ter de Google Cloud, una arquitectu­ra arquitectu­ra de superorden­ador que emplea un sistema integrado de hardware de rendimient­o optimizado, optimizado, software abierto, marcos de

La lucha por tener un mejor modelo de IA se libra también en el corazón de los servidores

ML y modelos de consumo flexibles. flexibles. Google defiende el uso de TPU frente a GPU. La primera es un circuito integrado (ASIC) específico específico de una aplicación diseñado por Google para las redes neuronales neuronales y cuentan con caracterís­ticas especializ­adas, como la multiplica­ción multiplica­ción de la matriz (MXU) y la topología de interconex­ión propia, propia, lo que las convierte en ideales para agilizar el entrenamie­nto y la inferencia de la IA. Estas TPU han sido durante mucho tiempo la base para el entrenamie­nto y el servicio de productos basados en IA como Youtube, Gmail, Google Maps, Google Play y Android.

El tercer proveedor cloud en discordia, discordia, AWS, también tienen en nvidia uno de sus principale­s aliados. aliados. De hecho, durante la celebració­n celebració­n de re: Invent en Las Vegas a finales de noviembre, los responsabl­es responsabl­es de AWS se vanagloria­ban de haber sido los primeros en percatarse percatarse de la potencia de nvidia para estos menesteres.

« Llevamos más de 13 años colaborand­o colaborand­o con nvidia para llevar la GPU a la nube, creando instancias instancias de cálculo que importan una amplia gama de casos de uso, incluidos incluidos los gráficos y los juegos, el aprendizaj­e automático de HPC y, ahora, por supuesto, las cargas de trabajo de IA generativa», aseguraba aseguraba el máximo responsabl­e de AWS, Adam Selipsky.

Según su visión, gracias a esta alianza con nvidia «estamos entrenando entrenando cuatro veces más rápido y un 40% menos caro que el resto». Ahora bien, «tener los mejores chips es estupendo y necesario, pero para alcanzar el siguiente nivel nivel de rendimient­o no basta con tener a los mejores, también se necesitan clústeres de servidores de alto rendimient­o que ejecuten nuestras GPU».

Jen-hsun Huang, fundador y director ejecutivo de NVIDIA, hablaba hablaba en este mismo escenario de la alianza que tienen con AWS («fueron los primeros en darse cuenta de la importanci­a de las tarjetas para la IA ») y hablaba de un proyecto por el que van a conectar conectar 16.384 GPU a un superorden­ador superorden­ador gigante de IA con lo que se espera «reducir el tiempo de entrenamie­nto de los modelos de lenguaje más grande de la próxima próxima generación a la mitad del tiempo», tiempo», con la consiguien­te reducción del coste.

Intel se reivindica

En esta carrera por la IA, Intel se reivindica también a sí misma, asegurando que sus procesador­es interviene­n en muchas de las fases previas del entrenamie­nto de la IA y con una eficiencia energética mejor.

Además, cree que vamos a un mundo heterogéne­o en el que convivirán varias arquitectu­ras (como x86, que lidera). « La estrategia estrategia de Intel de fabricar para terceros terceros es una respuesta a este mundo mundo al que nos movemos», asegura Norberto Mateos, director general de Intel en España.

« El mercado va a tener diferentes diferentes arquitectu­ras y cada una de ellas su aplicación. Tenemos que intentar ofrecer una propuesta de valor que sea suficiente­mente interesant­e interesant­e para los para nuestros usuarios».

 ?? ??
 ?? ??
 ?? ?? Una trabajador­a manipula una bandeja de procesador­es
Una trabajador­a manipula una bandeja de procesador­es

Newspapers in Spanish

Newspapers from Spain