La Tribune Hebdomadaire

Derrière la guerre des applicatio­ns, le juteux marché des processeur­s IA

PROSPECTIV­E Grâce aux processeur­s graphiques qui accélèrent les calculs d’IA, les américains Nvidia et AMD se sont taillé la part du lion. Mais les perspectiv­es de l’apprentiss­age profond pourraient rebattre les cartes.

- FRANÇOIS MANENS

En surface, la bataille autour de l’intelligen­ce artificiel­le se joue dans la course aux applicatio­ns de demain. Assistants vocaux, reconnaiss­ance d’image, analyse prédictive, aide au diagnostic médical... L’IA a déjà commencé à révolution­ner de nombreuses industries. Pour imposer ces nouveaux outils, les géants de la tech américains et chinois s’arrachent les meilleurs chercheurs. Mais derrière la bataille des applicatio­ns se joue une autre guerre, moins visible mais cruciale : celle du matériel qui fait tourner l’IA. En tout, le marché de l’équipement des datacenter­s pesait 210 milliards de dollars en 2018, d’après le cabinet de conseil Gartner. Au sein des serveurs qui alimentent ces centres de données, l’élément clé est un processeur qui accélère l’intelligen­ce artificiel­le : la Graphic Processing unit (GPU). Une puce carrée de quelques millimètre­s de large et de longueur. Les serveurs les plus performant­s en connectent plusieurs pour obtenir davantage de puissance de calcul. Un marché spécifique à l’IA que se partagent en duopole les américains Nvidia et Advanced Micro Devices (AMD). Le premier en est le champion incontesta­ble : il pèse, selon les trimestres, entre 65"% et 80"% de parts de marché à lui seul. Mais les prétendant­s se bousculent au portillon. Intel, Google, Microsoft, IBM, Amazon, Facebook, Baidu ou encore Huawei planchent sur un processeur alternatif, capable de détrôner le GPU. Des startups comme GraphCore, Wave Computing ou Cerebras lèvent aussi des centaines de millions de dollars, persuadées de pouvoir créer une puce mieux adaptée que le GPU à l’intelligen­ce artificiel­le de demain.

NVIDIA, PIONNIER TOUJOURS PREMIER

Avant l’essor de l’intelligen­ce artificiel­le, au début des années 2010, la puissance de calcul des ordinateur­s s’appuyait principale­ment sur les processeur­s CPU, appelés aussi unités centrales. Très performant­s pour effectuer des calculs les uns après les autres, les CPU ne sont pas adaptés à l’IA. Car ses méthodes d’apprentiss­age machine et profond nécessiten­t de pouvoir effectuer des milliards de calculs en même temps. C’est pourquoi l’IA, qui existe depuis les années 1950, a stagné jusqu’à la fin des années 2000. À ce moment, des scientifiq­ues réalisent, par hasard, que les GPU de Nvidia, réputés surtout pour le traitement de l’image, savent aussi effectuer les calculs de machine

learning et de deep learning. Grâce au GPU, les chercheurs peuvent enfin faire tourner les algorithme­s qu’ils développen­t depuis des années. Heureuse surprise pour Nvidia et AMD, qui voient s’ouvrir un tout nouveau marché, en plus de celui des jeux vidéo et du graphisme 3D qui avaient fait leur renommée mondiale. Le succès de Nvidia est dû en partie à son interface agnostique, qui permet à tous les algorithme­s, peu importe leur langage de développem­ent – et il y a en beaucoup –, de fonctionne­r sur son matériel. Une manière d’éviter la guerre du logiciel et de démocratis­er l’utilisatio­n de ses processeur­s. Cette stratégie a porté ses fruits : en 2018, la division de l’entreprise consacrée aux puces destinées aux datacenter­s pesait à elle seule 2,9 milliards de dollars de chiffre d’affaires annuel, soit plus du double que deux ans auparavant. Le départemen­t représente 24,8"% du chiffre d’affaires global du groupe et est amené à devenir son activité principale à moyen terme.

LES GPU, PAS ASSEZ PUISSANTES!?

Si les GPU dominent aujourd’hui le marché des puces d’IA, leurs limites commencent à apparaître. « Quand on s’intéresse à des problèmes comme la conception des médicament­s, on

observe qu’ils ne sont pas encore solvables avec les processeur­s actuels » , explique Jerry Yang,

General Partner de l’incubateur et fonds d’investisse­ment Hardware Club. L’une de ces limites est que « les GPU ne peuvent pas accéder à beaucoup de mémoire, souligne l’inves

tisseur. Mais la majorité des entreprise­s doivent les utiliser car il n’y a pas d’autre solution. »

Pour aller au-delà des capacités des GPU, les autres constructe­urs se sont lancés dans le développem­ent de processeur­s spécialisé­s dans certains types de calculs. On les appelle ASIC. Chacun d’entre eux doit exceller dans un type d’intelligen­ce artificiel­le, et ainsi calculer plus vite tout en dépensant moins d’énergie. L’objectif : court-circuiter les GPU généralist­es en jouant l’hyper-spécialisa­tion. Google a dégainé en premier en 2016, avec ses

Tensor Processing Unit (TPU), qui assurent le fonctionne­ment d’applicatio­ns comme Google Photos ou Google Street View. Moins performant­es que les GPU, elles consomment cepen

« À long terme, il y aura différents processeur­s à utiliser selon les différents cas »

JERRY YANG,

GENERAL PARTNER DE HARDWARE CLUB.

dant moins d’énergie. Mais pour d’autres usages, le groupe californie­n ne peut pas encore se passer des GPU. D’ailleurs, il ne souhaite pas les concurrenc­er, du moins pour l’instant. Compatible­s uniquement avec l’environnem­ent de travail de Google, TensorFlow, les TPU ne sont pas commercial­isés. Pour les utiliser, un seul moyen : louer un serveur cloud de Google.

UNE DIZAINE DE NOUVEAUX ACTEURS

À la Hot Chips, la conférence annuelle des acteurs du secteur qui s’est tenue mi-août, Intel, le leader des processeur­s grâce à ses CPU, a enfin dévoilé ses puces spécialisé­es pour l’IA, développée­s en partenaria­t avec Baidu. Les « proces

seurs à réseaux neuronaux » d’Intel se déclinent en deux gammes : l’une pour entraîner les intelligen­ces artificiel­les (NNP-T), l’autre pour faire tourner les modèles (NNP-I). Le constructe­ur les a baptisés Nervana, du nom de la startup spécialisé­e qu’il a racheté pour 408 millions de dollars en 2016. Ces puces devraient logiquemen­t s’imposer comme les plus grands concurrent­s des GPU pour équiper les futurs datacen

ters. Mais elles ne seront pas les seules à tenter ce pari. À cette même conférence, la startup américaine Cerebras a surpris avec son processeur 56 fois plus large que la plus grande des GPU, et espère désormais prouver l’efficacité de sa puce. Une semaine après, Huawei a dévoilé son processeur, alors que Amazon Web Services avait fait de même fin 2018. Alerté par cette concurrenc­e, Nvidia développe de nouvelles architectu­res de GPU spécialisé­es.

Le nombre de références sur le marché va se multiplier avec l’entrée d’une dizaine de nouveaux acteurs, avec de la place pour presque tout le monde. « À long terme, il y aura différents processeur­s à utiliser selon les différents cas », prédit Jerry Yang. « Il faut comprendre que l’efficacité des processeur­s dépend beaucoup du nombre de données et du type de données qu’on veut utiliser » , aj oute- t - i l .

Aujourd’hui, les data scientists passent beaucoup de temps à préparer les données pour qu’elles puissent être modélisées. Demain, les nouveaux processeur­s pourraient s’adapter à tout type de données, et faire gagner beaucoup de temps.

 ??  ??
 ?? [NVIDIA] ?? LES GPU DOMINENT LE MARCHÉ DES PUCES D’IA Le DGX-2 de Nvidia, qui possède 16 GPU, est une des meilleures machines pour l’apprentiss­age profond. Pour se l’offrir, il faut débourser plus de 360#000 euros.
[NVIDIA] LES GPU DOMINENT LE MARCHÉ DES PUCES D’IA Le DGX-2 de Nvidia, qui possède 16 GPU, est une des meilleures machines pour l’apprentiss­age profond. Pour se l’offrir, il faut débourser plus de 360#000 euros.

Newspapers in French

Newspapers from France