Les jeux sont faits
Il y a quelques jours se tenait à San Jose en Californie la première conférence GTC de Nvidia depuis la pandémie. Des milliers de personnes ont participé à cette conférence pour connaitre les annonces du fondeur sur ces nouvelles puces graphiques, une technologie que la société domine largement avec près de 80 % de parts de marché laissant loin derrière AMD et Intel. Le fait marquant de cette conférence a été le nombre de partenariats renouvelés, étendus ou annoncés lors de cette conférence. Ainsi Netapp a étendu sa collaboration avec le fondeur. Cloudera va utiliser les micro- services d’intelligence générative de Nvidia. Oracle étend son alliance pour proposer une intelligence artificielle souveraine s’appuyant sur les nouvelles puces Blackwell. Dans le domaine de la sécurité Crowdstrike va proposer les services de Nvidia en IA sur sa plate- forme Falcon. Checkpoint va intégrer les DPU de Nvidia dans sa solution Cloud AI Protect. DDN va faire de même avec les DPU Bluefield- 3 dans ses serveurs Exascaler. Snowflake a annoncé aussi l’extension de son partenariat afin d’offrir son data cloud comme backend aux entreprises souhaitant utiliser les technologies de la société de San Jose pour leur analyse en intelligence artificielle. Dell, SAP, Cohesity, Pure Storage, Ansys et même Siemens ont eux aussi fait part de leurs liens avec le fondeur.
Surfant sur la vague de l’intelligence artificielle générative, Nvidia prend donc une place prééminente et explique que le CA de NVIDIA atteint 60,92 milliards de dollars en 2024, soit une augmentation de + 125,85 % par rapport à la période précédente. Sa marge brute est aussi passée de 56,9 % en 2023 à 72,7 % en 2024. La capitalisation boursière de NVIDIA est de 2188,2 milliards de dollars en mars 2024. Elle constitue donc la troisième capitalisation boursière mondiale derrière Microsoft ( 3.087 milliards) et Apple ( 2.774 milliards). Mais plus que la domination, parfois jugée outrance du fondeur, il faut y voir, à l’appui des partenariats annoncés, le choix de l’industrie pour les GPU dans les processus et cycle de l’intelligence artificielle.
Il ne reste pas beaucoup de lettres
Cette domination pose aussi question autour des technologies développées par d’autres fondeurs qui ont spécialisé leur puces sur le traitement des données. Quasiment toutes les lettres de l’alphabet sont désormais prises et il ne reste que ZPU et quelques autres pour qualifier ces puces. La plus à la mode avec Groq est le LPU ou language Processing Unit. Cette dernière société affirme produire des puces dédiées à L’IA offrant une plus grande puissance de calcul que celles de Nvidia. Pour arriver à ses fins, l’entreprise a développé une nouvelle architecture de puce nommée LPU ( Language Processing Unit). Gravé en 14 nanomètres, ce composant a pour seul et unique objectif de faire tourner les différents modèles de langages d’intelligence artificielle, dont l’emblématique CHATGPT. On peut aussi citer le TPU de Google ou Tensor Processing Unit. Broadcom a lui pris le x avec ses XPU. Kalray s’est emparé du D avec ses DPU ou Data Processing Unit. L’entreprise a récemment signé un partenariat avec Arm permettant à cet environnement d’avoir une puce spécifique pour le traitement des données en volume. De plus Kalray vient d’annoncer une nouvelle carte d’accélération embarquant quatre de ses DPU pour cbler les marchés des applications de vision intelligente
et d’indexation de données. Mais avec ses 25,8 M€ de chiffre d’affaires la société est loin de Nvidia. Nebulon réalise la même chose mais a choisi le S pour ses SPU ou Service Processing Unit. Le N est la lettre la plus partagée. Plusieurs entreprises développent ainsi des NPU ou Neural Processing Unit comme AMD, Qualcomm, Apple ou Intel. Il ne faut pas les confondre avec les Network Processing Unit, des processeurs dédiés à la gestion des interconnexions réseau. Ce marché à lui aussi ses spécialistes. Au F, vous avez les Floating Point Units. Le M se décile en Memory Protection Unit. Ageia a annexé le P pour ses PPU ou cartes de calcul physique. Le R est très spécialisé dans le graphisme avec les Ray Processing Units tout comme le V et les Vision Processing Units. Le S s’accole au Snippet Processing Unit et IBM se réserve pour l’instant le Q pour ses Qubit Processing Units. Bref toutes ces innovations et spécialisations trouveront certainement leur place mais certainement pas sur le terrain de Nvidia. On peut se demander ce que vont devenir celles- ci devant l’engouement autour des GPU de Nvidia. D’ailleurs comme nous l’ont fait remarquer en privé certains fournisseurs de serveurs ou de baies de stockage. Le marché actuellement se scinde en deux parties : ceux qui peuvent fournir des GPU… et ceux qui n’en ont pas. Comme Nvidia privilégie les larges commandes de ses puces. Il va y avoir des difficultés pour certains dans le domaine du hardware dans les semaines à venir ! Et c’est sans compter sur les possibles ruptures du fait du récent tremblement de terre à Taïwan même si TSMC a assuré que ses sites avaient été faiblement impacté.
Quel futur ?
On peut déjà s’interroger sur l’avenir de l’historique CPU. Avec la multiplication des puces spécialisées sur certains domaines pour les décharger des tâches trop gourmandes, il est fort possible qu’elle ne serve plus qu’à faire tourner le serveur sous- jacent et orchestrer les différentes puces présentes que ce soit pour l’intelligence artificielle, le réseau ou autre. Au pire elle ne servira plus qu’au boot du serveur laissant les autres puces faire leur travail. Ne sera- t- elle plus dévolus qu’au laptop ou autres tour pour les gamers qui eux aussi choisissent le nec plus ultra des cartes graphiques et des GPU pour éviter les lags et avoir une vision de très haute qualité.
Il en est de même pour le traitement en mémoire. Plusieurs start- up se sont lancées sur cette piste comme Hazelcast, qui vient de rendre des résultats prometteurs, ou Gridgain, Mythic. AI ou encore Scaleout Software et Fujitsu… Le futur reste cependant incertain sur la possibilité que cette technologie s’impose largement alors que l’industrie subit le tsunami Nvidia.
Le composable, avec la possibilité avec ces différents processeurs de créer des serveurs totalement adaptés à la tâche auxquels ils sont destinés, mérite donc l’attention dans le futur assez proche. Une entreprise comme Liqid qui permet de désagréger les GPU pour apporter la juste et nécessaire portion de GPU pour réaliser des travaux D’IA est une piste intéressante et évite de gaspiller des ressources non utilisées mais chères et parfois rares !
Quand entre en jeu la possession des choses terrestres, il est difficile que les hommes raisonnent selon la justice. Umberto Eco, Le nom de la rose.
L’économie n’est pas un jeu à somme nulle. Nous pouvons restructurer la mondialisation au bénéfice de tous. Joseph Stiglitz