Comment Nvidia s’est imposé dans les datacenters
Concepteur d’accélérateurs 3D culte pour les gamers en passe de racheter ARM, Nvidia vient d’opérer une percée sans précédent dans les datacenters. En l’espace de quelques trimestres, la firme de Santa- Clara a réussi à rendre ses puces incontournables pour faire de l’intelligence artificielle. Jusqu’à quand ?
Depuis les cartes Riva de la fin des années 90 qui faisaient pâle figure face aux cartes graphiques de 3dfx aux monstres de puissance Geforce de la série RTX 30, en passant par les futures Xbox Series X et Playstation 5, Nvidia est l’un des concepteurs de puces graphiques les plus populaires auprès des gamers. Si, en volume, Nvidia est au coude à coude avec AMD, loin derrière Intel avec des puces nettement moins ambitieuses pour équiper les postes clients de GPU, ce que l’on sait moins, c’est que Nvidia est en train de s’imposer dans les datacenters. Pour la première fois de la jeune histoire de l’entreprise fondée par le charismatique Jensen Huang, l’activité Datacenter est passé devant au deuxième trimestre fiscal 2021. Autre signe des temps, la capitalisation boursière de Nvidia a dépassé celle d’intel pour la première fois en juillet dernier. L’acquisition de Mellanox Technologies, le spécialiste des puces hautes performances Ethernet et Infiniband, pour 7 milliards de dollars est effective dans les comptes depuis ce deuxième trimestre, mais ce coup de boost ne doit pas masquer une progression organique sans précédent du Californien dans les datacenters. Avant même que l’acquisition de Mellanox soit intégrée aux comptes de Nvidia, cette progression atteignait + 80 % au premier trimestre. Les derniers chiffres publiés font état d’une progression annuelle de cette activité Datacenter de 167 % en un an, à comparer aux + 26 % de l’activité Gaming et – 47 % sur l’activité automobile. Avec 1,75 milliard de dollars, dont 30 % apporté par Mellanox, cette activité Datacenter a maintenant dépassé le jeu ( 1,65 milliard $) dans les comptes de l’américain.
L’IA, puissant moteur de croissance pour l’américain
Tout comme les vendeurs de pelles et de pioches pendant la ruée vers l’or, c’est Nvidia qui profite le plus de l’essor de la simulation numérique et de L’IA.
Dans le monde du HPC, 8 des 10 plus puissants supercalculateurs au monde ont désormais des puces Nvidia dans le ventre et l’américain revendique les deux tiers des machines du Top 500. Mais outre ces machines d’exception qui restent une niche de marché, c’est bien l’explosion des usages de l’intelligence artificielle qui porte la croissance de Nvidia. Coup de chance monumental diront les uns, « vision » des concepteurs de composants diront les autres, les architectures de GPU initialement conçues pour effectuer le rendu de scènes 3D se prêtent particulièrement bien à l’accélération des algorithmes D’IA. Le GPU est notamment efficace pour accélérer certaines catégories d’algorithmes, à savoir les réseaux de neurones ( ou Deep Learning). « Un GPU est capable de faire des opérations très simples mais de manière massivement parallèle, comme des opérations d’algèbre linéaire. C’est exactement ce fondement mathématique qui est utilisé dans les algorithmes de réseau de neurones » , explique un expert en IA. « L’essor du Deep Learning et des GPU se sont nourris l’un l’autre. L’opportunité technique offerte par les GPU a été un des facteurs qui a permis ce nouvel essor des réseaux de neurones tels que nous l’avons observé ces dernières années. Les nouvelles opportunités apportées par leur développement a poussé beaucoup de personnes à se tourner vers ces types d’algorithmes et donc utiliser des GPU. » Mais Nvidia n’est pas le seul fabricant de GPU, loin de là. En volume, Intel livre plus de puces graphiques que Nvidia et AMD réunis, mais le positionnement entrée de gamme des puces graphiques Intel ne les destine pas à L’IA. Quant aux fonctions d’intelligence artificielle intégrées aux processeurs Xeon Scalable, le jeu d’instructions Vector Neural Network Instruction ( VNNI) ne semble pas avoir réussi à renverser la vapeur en faveur du CPU. Paradoxalement, le succès des puces Nvidia dans les datacenters pourrait bien être dû tant à la puissance de ses puces qu’aux couches logicielles développées par la firme de Santa- Clara et la facilité de mise en oeuvre de cette puissance qu’apportent ces logiciels. Un expert souligne : « Les chercheurs et les utilisateurs de Machine Learning ne sont pas tous des informaticiens accomplis ou n’ont pas la volonté de prendre du temps à coder. La librairie CUDA dans un premier temps et surtout maintenant l’accessibilité à des frameworks très simples d’emploi comme Pytorch développé par Facebook, ou Tensorflow de Google font qu’il est extrêmement facile
de faire du Deep Learning sur GPU. » Cette facilité d’accès s’est encore accrue avec les services cloud, une simplicité d’usage que ne peuvent offrir les composants FPGA pourtant réputés extrêmement véloces. Vincent Malka, directeur du consulting et du développement chez Teknowlogy/ PAC souligne que si CUDA a permis à Nvidia de séduire les développeurs, cette approche fait aussi un carton dans le Cloud : « L’autre facteur de succès de CUDA tient au fait qu’il fonctionne de la même manière sur une carte Nvidia dans un PC que sur un supercalculateur dans un centre de calcul. Avec le driver Gpucloud, un développeur peut aussi développer son réseau de neurones et une application D’IA chez lui sur son PC et, une fois prête, la déployer à large échelle en utilisant les services d’un hyperscaler cloud tel que AWS pour lui permettre de “scaler ” sans limites de puissance, ou presque. » L’analyse estime que cette facilité d’usage et d’interopérabilité/ portabilité du code permet d’optimiser l’efficacité des cycles de développement et de mise en production, en droite ligne avec les tendances CICD et Devops.
Nvidia surfe sur un marché qui glisse vers le Cloud
Le nouveau cheval de bataille de Nvidia sur le marché Datacenter, c’est désormais le GPU A100, la plus grosse puce conçue par ses ingénieurs jusqu’à aujourd’hui. Conçue sur l’architecture Ampere, celle- ci compte 54 milliards de transistors et implémente la troisième génération de coeurs Tensor, optimisés pour
L’IA. La puce supporte la version 11 de CUDA, les 50 libraires CUDA- X et les principaux frameworks D’IA, dont Jarvis, L’IA conversationnelle et Merlin, framework Nvidia dédié au Deep Learning. Google a été le premier client du dernier né Nvidia afin de le proposer sur ses offres Google Cloud et Microsoft a annoncé le choix de l’a100 pour créer des clusters dédiés à L’IA s’appuyant sur des puces A100 interconnectées en 200 Gbit/ s par des composants Infiniband Mellanox. Outre les fournisseurs Cloud AWS, Alibaba Cloud, Baidu Cloud et Tencent Cloud, Nvidia revendique déjà cinquante constructeurs de serveurs au tableau de chasse de l’a100.
Ce glissement du marché vers le Cloud est majeur pour l’activité Datacenter et pourrait bien l’être un jour sur le marché Gaming. S’il y aura bien des puces Nvidia dans la nouvelle génération de consoles de jeux, Nvidia se prépare à l’essor du Cloud Gaming et propose avec sa solution Nvidia Grid aux opérateurs cloud une architecture de virtualisation des GPU.
Tous les fournisseurs de Cloud se doivent désormais d’avoir des instances GPU à leur catalogue et Jensen Huang, fondateur de Nvidia, voit dans l’essor des architectures en microservices une opportunité majeure de bousculer les positions établies dans les datacenters : « Un changement structurel qui se produit dans les centres de données. La première dynamique, bien sûr, c’est le mouvement vers le Cloud mais la façon dont un datacenter Cloud est conçu est fondamentalement différente de la façon dont un centre de données d’entreprise ou un cluster est construit. » Rappelant que l’origine du mot « hyperscaler » provient de l’utilisation d’un grand nombre de systèmes hyperconvergés dans les grands centres de données, le fondateur de Nvidia estime
que l’architecture des ordinateurs dédiés à ces datacenters doit être non plus intégrée, mais désagrégée. Expliquant que les applications modernes sont désormais conçues sous forme de multiples microservices s’appelant les uns les autres en fonction des tâches à accomplir, ces échanges de données en cascade génèrent un important trafic est- ouest dans le datacenter, ce qui, selon Jensen Huang, implique de revoir la conception des serveurs : « Un seul service d’application doit pouvoir fonctionner sur plusieurs serveurs en même temps, ce qui génère énormément de trafic est- ouest, c’est typiquement le cas des réseaux de neurones qui génèrent le trafic de ce type. C’est la raison pour laquelle, dans ce type d’architecture, deux choses sont vraiment importantes pour l’avenir du
Cloud. La première, c’est l’accélération : et notre GPU est idéal pour cela. La deuxième, c’est la mise en réseau à haut débit. La chose la plus importante que vous puissiez faire est d’acheter un réseau à très haut débit et à faible latence et c’est à cela que Mellanox excelle. » CQFD.
Nvidia a- t- il déjà mangé son pain blanc ?
Jensen Huang surfe actuellement sur l’immense vague d’intérêt des entreprises pour l’intelligence artificielle qui devrait encore durer quelques années avant que ces technologies se banalisent. De même, de nombreux pays injectent des centaines de millions de dollars dans leurs stratégies HPC afin de rendre leur recherche et leur industrie plus compétitive à l’échelle internationale. Si on ajoute à cela les lancements prochains des consoles de jeux de nouvelle génération, tous les indicateurs sont au vert pour Nvidia. Néanmoins, la compétition avec AMD est extrêmement serrée avec AMD sur le marché Desktop, et, comme on l’a vu récemment sur le marché du cryptomining, un marché d’un milliard de dollars peut se retourner du jour au lendemain. Ainsi, sur le marché de L’IA, une nouvelle génération de composants dédiés à L’IA arrive, les TPU ( Tensor Processing Unit). Le marché de ces puces spécialisées IA n’est actuellement qu’un marché de niche, mais on commence à voir arriver les composants de ce type dans les smartphones, sur des objets connectés et, bien évidemment, dans les datacenters. Si Google est un gros client de
Nvidia, cela n’empêche pas l’américain de s’être fait le champion de cette nouvelle approche, avec des performances nettement supérieures pour son TPU comparée à celles des puces Nvidia V100, la génération qui a précédé l’a100.
Cette nouvelle approche à notamment séduit Lucas Nacsa, PDG de Neovision, société spécialisée en Intelligence artificielle : « Nous utilisons habituellement des machines dédiées pour faire de l’entrainement des modèles, ainsi que des machines dans le Cloud. Des offres cloud commencent à concurrencer les GPU, je pense notamment aux TPU de Google Cloud, des processeurs conçus pour faire du calcul matriciel et qui battent à plate couture toutes les autres technologies sur la partie entraînement des algorithmes. On peut exploiter ce type de composants à la demande, dans le Cloud pour un coût assez faible 5 à 10 fois plus vite qu’avec des GPU. Les TPU bénéficieront- ils à leur tour des économies d’échelles dont les GPU ont pu bénéficier grâce à l’industrie des jeux, mais le fait qu’un des Gafa parie sur cette technologie est intéressant. »
Nvidia et l’approche GPU en général ont encore quelques belles années devant eux dans le domaine de L’IA, d’autant que l’américain peut s’appuyer sur son écosystème développeur et qui, avant de passer à une nouvelle technologie devra être certain que le gain obtenu surpasse la courbe d’apprentissage et la difficulté d’usage de cette technologie au quotidien. ✖