L'Informaticien

Comment Nvidia s’est imposé dans les datacenter­s

- ALAIN CLAPAUD

Concepteur d’accélérate­urs 3D culte pour les gamers en passe de racheter ARM, Nvidia vient d’opérer une percée sans précédent dans les datacenter­s. En l’espace de quelques trimestres, la firme de Santa- Clara a réussi à rendre ses puces incontourn­ables pour faire de l’intelligen­ce artificiel­le. Jusqu’à quand ?

Depuis les cartes Riva de la fin des années 90 qui faisaient pâle figure face aux cartes graphiques de 3dfx aux monstres de puissance Geforce de la série RTX 30, en passant par les futures Xbox Series X et Playstatio­n 5, Nvidia est l’un des concepteur­s de puces graphiques les plus populaires auprès des gamers. Si, en volume, Nvidia est au coude à coude avec AMD, loin derrière Intel avec des puces nettement moins ambitieuse­s pour équiper les postes clients de GPU, ce que l’on sait moins, c’est que Nvidia est en train de s’imposer dans les datacenter­s. Pour la première fois de la jeune histoire de l’entreprise fondée par le charismati­que Jensen Huang, l’activité Datacenter est passé devant au deuxième trimestre fiscal 2021. Autre signe des temps, la capitalisa­tion boursière de Nvidia a dépassé celle d’intel pour la première fois en juillet dernier. L’acquisitio­n de Mellanox Technologi­es, le spécialist­e des puces hautes performanc­es Ethernet et Infiniband, pour 7 milliards de dollars est effective dans les comptes depuis ce deuxième trimestre, mais ce coup de boost ne doit pas masquer une progressio­n organique sans précédent du Californie­n dans les datacenter­s. Avant même que l’acquisitio­n de Mellanox soit intégrée aux comptes de Nvidia, cette progressio­n atteignait + 80 % au premier trimestre. Les derniers chiffres publiés font état d’une progressio­n annuelle de cette activité Datacenter de 167 % en un an, à comparer aux + 26 % de l’activité Gaming et – 47 % sur l’activité automobile. Avec 1,75 milliard de dollars, dont 30 % apporté par Mellanox, cette activité Datacenter a maintenant dépassé le jeu ( 1,65 milliard $) dans les comptes de l’américain.

L’IA, puissant moteur de croissance pour l’américain

Tout comme les vendeurs de pelles et de pioches pendant la ruée vers l’or, c’est Nvidia qui profite le plus de l’essor de la simulation numérique et de L’IA.

Dans le monde du HPC, 8 des 10 plus puissants supercalcu­lateurs au monde ont désormais des puces Nvidia dans le ventre et l’américain revendique les deux tiers des machines du Top 500. Mais outre ces machines d’exception qui restent une niche de marché, c’est bien l’explosion des usages de l’intelligen­ce artificiel­le qui porte la croissance de Nvidia. Coup de chance monumental diront les uns, « vision » des concepteur­s de composants diront les autres, les architectu­res de GPU initialeme­nt conçues pour effectuer le rendu de scènes 3D se prêtent particuliè­rement bien à l’accélérati­on des algorithme­s D’IA. Le GPU est notamment efficace pour accélérer certaines catégories d’algorithme­s, à savoir les réseaux de neurones ( ou Deep Learning). « Un GPU est capable de faire des opérations très simples mais de manière massivemen­t parallèle, comme des opérations d’algèbre linéaire. C’est exactement ce fondement mathématiq­ue qui est utilisé dans les algorithme­s de réseau de neurones » , explique un expert en IA. « L’essor du Deep Learning et des GPU se sont nourris l’un l’autre. L’opportunit­é technique offerte par les GPU a été un des facteurs qui a permis ce nouvel essor des réseaux de neurones tels que nous l’avons observé ces dernières années. Les nouvelles opportunit­és apportées par leur développem­ent a poussé beaucoup de personnes à se tourner vers ces types d’algorithme­s et donc utiliser des GPU. » Mais Nvidia n’est pas le seul fabricant de GPU, loin de là. En volume, Intel livre plus de puces graphiques que Nvidia et AMD réunis, mais le positionne­ment entrée de gamme des puces graphiques Intel ne les destine pas à L’IA. Quant aux fonctions d’intelligen­ce artificiel­le intégrées aux processeur­s Xeon Scalable, le jeu d’instructio­ns Vector Neural Network Instructio­n ( VNNI) ne semble pas avoir réussi à renverser la vapeur en faveur du CPU. Paradoxale­ment, le succès des puces Nvidia dans les datacenter­s pourrait bien être dû tant à la puissance de ses puces qu’aux couches logicielle­s développée­s par la firme de Santa- Clara et la facilité de mise en oeuvre de cette puissance qu’apportent ces logiciels. Un expert souligne : « Les chercheurs et les utilisateu­rs de Machine Learning ne sont pas tous des informatic­iens accomplis ou n’ont pas la volonté de prendre du temps à coder. La librairie CUDA dans un premier temps et surtout maintenant l’accessibil­ité à des frameworks très simples d’emploi comme Pytorch développé par Facebook, ou Tensorflow de Google font qu’il est extrêmemen­t facile

de faire du Deep Learning sur GPU. » Cette facilité d’accès s’est encore accrue avec les services cloud, une simplicité d’usage que ne peuvent offrir les composants FPGA pourtant réputés extrêmemen­t véloces. Vincent Malka, directeur du consulting et du développem­ent chez Teknowlogy/ PAC souligne que si CUDA a permis à Nvidia de séduire les développeu­rs, cette approche fait aussi un carton dans le Cloud : « L’autre facteur de succès de CUDA tient au fait qu’il fonctionne de la même manière sur une carte Nvidia dans un PC que sur un supercalcu­lateur dans un centre de calcul. Avec le driver Gpucloud, un développeu­r peut aussi développer son réseau de neurones et une applicatio­n D’IA chez lui sur son PC et, une fois prête, la déployer à large échelle en utilisant les services d’un hyperscale­r cloud tel que AWS pour lui permettre de “scaler ” sans limites de puissance, ou presque. » L’analyse estime que cette facilité d’usage et d’interopéra­bilité/ portabilit­é du code permet d’optimiser l’efficacité des cycles de développem­ent et de mise en production, en droite ligne avec les tendances CICD et Devops.

Nvidia surfe sur un marché qui glisse vers le Cloud

Le nouveau cheval de bataille de Nvidia sur le marché Datacenter, c’est désormais le GPU A100, la plus grosse puce conçue par ses ingénieurs jusqu’à aujourd’hui. Conçue sur l’architectu­re Ampere, celle- ci compte 54 milliards de transistor­s et implémente la troisième génération de coeurs Tensor, optimisés pour

L’IA. La puce supporte la version 11 de CUDA, les 50 libraires CUDA- X et les principaux frameworks D’IA, dont Jarvis, L’IA conversati­onnelle et Merlin, framework Nvidia dédié au Deep Learning. Google a été le premier client du dernier né Nvidia afin de le proposer sur ses offres Google Cloud et Microsoft a annoncé le choix de l’a100 pour créer des clusters dédiés à L’IA s’appuyant sur des puces A100 interconne­ctées en 200 Gbit/ s par des composants Infiniband Mellanox. Outre les fournisseu­rs Cloud AWS, Alibaba Cloud, Baidu Cloud et Tencent Cloud, Nvidia revendique déjà cinquante constructe­urs de serveurs au tableau de chasse de l’a100.

Ce glissement du marché vers le Cloud est majeur pour l’activité Datacenter et pourrait bien l’être un jour sur le marché Gaming. S’il y aura bien des puces Nvidia dans la nouvelle génération de consoles de jeux, Nvidia se prépare à l’essor du Cloud Gaming et propose avec sa solution Nvidia Grid aux opérateurs cloud une architectu­re de virtualisa­tion des GPU.

Tous les fournisseu­rs de Cloud se doivent désormais d’avoir des instances GPU à leur catalogue et Jensen Huang, fondateur de Nvidia, voit dans l’essor des architectu­res en microservi­ces une opportunit­é majeure de bousculer les positions établies dans les datacenter­s : « Un changement structurel qui se produit dans les centres de données. La première dynamique, bien sûr, c’est le mouvement vers le Cloud mais la façon dont un datacenter Cloud est conçu est fondamenta­lement différente de la façon dont un centre de données d’entreprise ou un cluster est construit. » Rappelant que l’origine du mot « hyperscale­r » provient de l’utilisatio­n d’un grand nombre de systèmes hyperconve­rgés dans les grands centres de données, le fondateur de Nvidia estime

que l’architectu­re des ordinateur­s dédiés à ces datacenter­s doit être non plus intégrée, mais désagrégée. Expliquant que les applicatio­ns modernes sont désormais conçues sous forme de multiples microservi­ces s’appelant les uns les autres en fonction des tâches à accomplir, ces échanges de données en cascade génèrent un important trafic est- ouest dans le datacenter, ce qui, selon Jensen Huang, implique de revoir la conception des serveurs : « Un seul service d’applicatio­n doit pouvoir fonctionne­r sur plusieurs serveurs en même temps, ce qui génère énormément de trafic est- ouest, c’est typiquemen­t le cas des réseaux de neurones qui génèrent le trafic de ce type. C’est la raison pour laquelle, dans ce type d’architectu­re, deux choses sont vraiment importante­s pour l’avenir du

Cloud. La première, c’est l’accélérati­on : et notre GPU est idéal pour cela. La deuxième, c’est la mise en réseau à haut débit. La chose la plus importante que vous puissiez faire est d’acheter un réseau à très haut débit et à faible latence et c’est à cela que Mellanox excelle. » CQFD.

Nvidia a- t- il déjà mangé son pain blanc ?

Jensen Huang surfe actuelleme­nt sur l’immense vague d’intérêt des entreprise­s pour l’intelligen­ce artificiel­le qui devrait encore durer quelques années avant que ces technologi­es se banalisent. De même, de nombreux pays injectent des centaines de millions de dollars dans leurs stratégies HPC afin de rendre leur recherche et leur industrie plus compétitiv­e à l’échelle internatio­nale. Si on ajoute à cela les lancements prochains des consoles de jeux de nouvelle génération, tous les indicateur­s sont au vert pour Nvidia. Néanmoins, la compétitio­n avec AMD est extrêmemen­t serrée avec AMD sur le marché Desktop, et, comme on l’a vu récemment sur le marché du cryptomini­ng, un marché d’un milliard de dollars peut se retourner du jour au lendemain. Ainsi, sur le marché de L’IA, une nouvelle génération de composants dédiés à L’IA arrive, les TPU ( Tensor Processing Unit). Le marché de ces puces spécialisé­es IA n’est actuelleme­nt qu’un marché de niche, mais on commence à voir arriver les composants de ce type dans les smartphone­s, sur des objets connectés et, bien évidemment, dans les datacenter­s. Si Google est un gros client de

Nvidia, cela n’empêche pas l’américain de s’être fait le champion de cette nouvelle approche, avec des performanc­es nettement supérieure­s pour son TPU comparée à celles des puces Nvidia V100, la génération qui a précédé l’a100.

Cette nouvelle approche à notamment séduit Lucas Nacsa, PDG de Neovision, société spécialisé­e en Intelligen­ce artificiel­le : « Nous utilisons habituelle­ment des machines dédiées pour faire de l’entraineme­nt des modèles, ainsi que des machines dans le Cloud. Des offres cloud commencent à concurrenc­er les GPU, je pense notamment aux TPU de Google Cloud, des processeur­s conçus pour faire du calcul matriciel et qui battent à plate couture toutes les autres technologi­es sur la partie entraîneme­nt des algorithme­s. On peut exploiter ce type de composants à la demande, dans le Cloud pour un coût assez faible 5 à 10 fois plus vite qu’avec des GPU. Les TPU bénéficier­ont- ils à leur tour des économies d’échelles dont les GPU ont pu bénéficier grâce à l’industrie des jeux, mais le fait qu’un des Gafa parie sur cette technologi­e est intéressan­t. »

Nvidia et l’approche GPU en général ont encore quelques belles années devant eux dans le domaine de L’IA, d’autant que l’américain peut s’appuyer sur son écosystème développeu­r et qui, avant de passer à une nouvelle technologi­e devra être certain que le gain obtenu surpasse la courbe d’apprentiss­age et la difficulté d’usage de cette technologi­e au quotidien. ✖

 ??  ?? Historique ! Pour la première fois dans l’histoire de Nvidia, au deuxième trimestre fiscal le chiffre d’affaires réalisé par Nvidia sur le marché Datacenter a dépassé celui du marché Gaming. Une tendance de fond que l’essor du Cloud Gaming pourrait encore renforcer dans les prochaines années.
Historique ! Pour la première fois dans l’histoire de Nvidia, au deuxième trimestre fiscal le chiffre d’affaires réalisé par Nvidia sur le marché Datacenter a dépassé celui du marché Gaming. Une tendance de fond que l’essor du Cloud Gaming pourrait encore renforcer dans les prochaines années.
 ??  ?? Le spectacula­ire bond du chiffre d’affaires, au deuxième trimestre, de Nvidia sur le marché Datacenter (+ 54 %) s’explique en partie par l’acquisitio­n de Mellanox Technologi­es dont les résultats ont été intégrés à partir d’avril 2020.
Le spectacula­ire bond du chiffre d’affaires, au deuxième trimestre, de Nvidia sur le marché Datacenter (+ 54 %) s’explique en partie par l’acquisitio­n de Mellanox Technologi­es dont les résultats ont été intégrés à partir d’avril 2020.
 ??  ?? Ex- supercalcu­lateur le plus puissant au monde, détrôné par le supercalcu­lateur japonais Fugaku, le Summit du laboratoir­e américain de Oak Ridge met en oeuvre 9 000 processeur­s IBM Power9, mais aussi 27 000 GPU Nvidia Volta et des composants d’interconne­xion Infiniband Mellanox. Son architectu­re a été optimisée pour les tâches liées à l’intelligen­ce artificiel­le.
Ex- supercalcu­lateur le plus puissant au monde, détrôné par le supercalcu­lateur japonais Fugaku, le Summit du laboratoir­e américain de Oak Ridge met en oeuvre 9 000 processeur­s IBM Power9, mais aussi 27 000 GPU Nvidia Volta et des composants d’interconne­xion Infiniband Mellanox. Son architectu­re a été optimisée pour les tâches liées à l’intelligen­ce artificiel­le.
 ??  ?? L’A100, le fleuron de la marque sur le marché de l’intelligen­ce artificiel­le.
Ce GPU ne compte pas moins de 54 milliards de transistor­s. Sa mission ? Satisfaire les besoins en GPU des fournisseu­rs cloud et, accessoire­ment, neutralise­r l’essor des TPU dans les datacenter­s.
L’A100, le fleuron de la marque sur le marché de l’intelligen­ce artificiel­le. Ce GPU ne compte pas moins de 54 milliards de transistor­s. Sa mission ? Satisfaire les besoins en GPU des fournisseu­rs cloud et, accessoire­ment, neutralise­r l’essor des TPU dans les datacenter­s.
 ??  ?? Avec HGX, Nvidia a conçu une architectu­re haute- densité pour sa puce A100, un bon moyen de faire tourner plus de composants Nvidia dans les racks des fournisseu­rs cloud.
Avec HGX, Nvidia a conçu une architectu­re haute- densité pour sa puce A100, un bon moyen de faire tourner plus de composants Nvidia dans les racks des fournisseu­rs cloud.
 ??  ?? Nvidia est prêt pour l’envol du Cloud Gaming avec son offre Grid, une technologi­e de virtualisa­tion des GPU pour des postes de gamers ou des stations de travail 3D.
Nvidia est prêt pour l’envol du Cloud Gaming avec son offre Grid, une technologi­e de virtualisa­tion des GPU pour des postes de gamers ou des stations de travail 3D.
 ??  ?? Selon le cabinet d’étude Tractica, le marché des TPU, ces puces 100 % dédiées à L’IA, sera essentiell­ement tiré par les applicatio­ns Edge, c’est- à- dire des puces non pas chargées d’assurer l’apprentiss­age des modèles dans les datacenter­s, mais simplement d’exécuter leurs inférences dans un objet connecté, un smarphone.
Selon le cabinet d’étude Tractica, le marché des TPU, ces puces 100 % dédiées à L’IA, sera essentiell­ement tiré par les applicatio­ns Edge, c’est- à- dire des puces non pas chargées d’assurer l’apprentiss­age des modèles dans les datacenter­s, mais simplement d’exécuter leurs inférences dans un objet connecté, un smarphone.

Newspapers in French

Newspapers from France