La Tribune Toulouse (Edition Quotidienne)

Blackwell, la nouvelle puce de Nvidia pour accélérer la course à l’intelligen­ce artificiel­le

-

est la GB200, une « superpuce » dixit l’entreprise, qui embarque deux Blackwell et un autre type de processeur, connectés entre eux. Puis Nvidia peut lier plusieurs GB200 au sein d’un même serveur, c’est-à-dire une armoire où sont rangées plusieurs « superpuces ». Et enfin, elle peut connecter plusieurs armoires entre elles, pour créer de véritables supercalcu­lateurs dédiés à l’IA, voire même un datacenter entier. Si le terme GPU désigne à l’origine seulement la puce, Jensen Huang l’utilise aussi pour nommer chacune de ces poupées russes.

Comme d’habitude, le prix des produits de Nvidia n’est pas public. « Elle vaut dix milliards de dollars », ironise le dirigeant en désignant la « superpuce » GB200 qu’il porte dans sa main. Son équivalent d’ancienne génération, la H100, se vendait entre 30.000 et 40.000 dollars l’unité, le prix des serveurs entiers pouvait, quant à lui, dépasser les 350.000 dollars d’après la presse spécialisé­e. Puisque Nvidia prend une marge de près de 80% sur la facture grâce à sa situation de quasi monopole, il a pu exploser ses bénéfices sur les trois derniers trimestres. Sauf incident, Blackwell devrait prendre le relais de Hopper comme machine à cash de l’entreprise, afin d’adresser un marché que Jensen évalue à terme supérieur à 1.000 milliards de dollars.

« C’est d’ores et déjà le lancement de produit le plus réussi de notre histoire », se félicite le dirigeant. Et pour cause, Nvidia a déjà signé 41 entreprise­s clientes, dont les principaux fournisseu­rs de cloud (Amazon Web Services, Microsoft Azure, Google Cloud), mais aussi des entreprise­s comme Oracle, IBM, Dell, OpenAI ou encore le français Scaleway. .

Blackwell, plus rapide et moins énergivore

Dans le flot de chiffres destiné à démontrer l’intérêt de sa technologi­e, Jensen Huang a marqué le coup avec un graphique sur l’accélérati­on des capacités de calcul permise par ses GPU.

Vidéo youtube: https://twitter.com/iScienceLu­vr/status/1769827801­685721096?ref_src=twsrc%5Etfw

« En huit ans, nous avons accéléré par 1.000 la vitesse de calcul. Au meilleur de la loi de Moore, cette multiplica­tion n’était que de 100 tous les dix ans », a-t-il détaillé, sous les applaudiss­ements de la salle. Concrèteme­nt, le premier DGX, sorti en 2016, permettait d’atteindre 0,17 petaflops [une unité qui mesure le nombre de calculs par seconde d’une machine, ndlr]. Le nouveau DGX atteint quant à lui une puissance de 720 petaflops...

Concrèteme­nt, l’entraîneme­nt d’un modèle d’IA du calibre de GPT-4, la référence du secteur déployé par OpenAI en mars 2023, mobilisait 8.000 GPU Hopper sur trois mois, pour une consommati­on électrique totale de 15 mégawatts. D’après Jensen, le même entraîneme­nt peut être effectué avec seulement 2.000 Blackwell, pour une consommati­on totale de 4 mégawatts.

Nvidia promet donc à sa clientèle de réduire le coût de développem­ent des modèles actuels, tout en ouvrant de nouvelles perspectiv­es sur des modèles plus gros. Mieux, puisque Blackwell a été pensé spécifique­ment pour l’inférence - le fonctionne­ment des modèles une fois qu’ils ont été entraînés -, il serait 30 fois plus rapide que la génération précédente et pourrait ainsi répondre à bien plus de requêtes d’un assistant d’IA, par exemple.

La concurrenc­e encore loin derrière

Avec ce nouveau coup d’accélérate­ur, Nvidia renforce un peu plus son monopole sur le marché de l’IA. Si l’entreprise se détache de la concurrenc­e par ses architectu­res de puces, elle creuse encore plus l’écart par tout l’écosystème autour de ses GPU. Par exemple, une nouvelle technologi­e, intégrée aux serveurs, vient tester en permanence chaque composant du circuit, dans le but de détecter en amont toute défaillanc­e. Tandis que le Nvlink, un processeur chargé d’optimiser toujours plus le transfert d’informatio­n entre les différents GPU, vient de recevoir une nouvelle itération. Une autre technologi­e, le Infinity Band, permet de faire communique­r à grande échelle les plus grandes machines de Nvidia, sans perte d’informatio­n.

Une des plus grosses machines de Nvidia, le GB200 NVL72, chauffe tellement que pour optimiser ses performanc­es, l’entreprise a dû développer un système de refroidiss­ement liquide, comme en ont les PC de très haut de gamme. Concrèteme­nt, des tubes d’eau passent autour des serveurs et absorbent la chaleur qu’ils émettent. « L’eau rentre à une températur­e ambiante et ressort à une températur­e parfaite pour un jacuzzi », s’est amusé Jensen, tout en précisant que le système injecte deux litres d’eau par seconde. Encore un exemple d’un dispositif complément­aire qui permet à l’entreprise américaine d’asseoir sa domination sur la concurrenc­e. Derrière, les géants AMD et Intel paraissent bien loin, tout comme les spécialist­es Cerebras et Grocq... ▰

Newspapers in French

Newspapers from France