En connaissance de cause
Cartes graphiques : passez à la vitesse supérieure.
Plus de 316 000. C’est le nombre de visiteurs qui ont déambulé dans les allées de la Paris Games Week en seulement cinq jours, fin octobre. Il n’aura fallu que dix ans à cet événement pour s’imposer comme le deuxième salon dédié aux jeux vidéo le plus fréquenté du monde. Et c’est aussi le dernier en France à se consacrer à l’univers de la microinformatique. Car, aux côtés de géants de l’industrie vidéoludique comme Sony, Nintendo ou Ubisoft, on découvre que le matériel PC se taille une part de choix dans les halls de la porte de Versailles. Asus, HP, Dell, Acer, mais aussi des revendeurs tels que LDLC ou la Fnac occupent le terrain. Et pour cause : les produits à destination des joueurs représentent une véritable bouffée d’air frais pour l’industrie d’un secteur qui continue à décliner. Alors que le revenu des ventes de ce matériel chute de 5 % cette année, selon une étude de GfK parue en septembre 2018, celui des machines pour gamers augmente de 26 % ! « Des jeux toujours plus soignés, plus immersifs et de plus en plus gourmands en ressources poussent au renouvellement des composants, se réjouit-on chez Nvidia. Car, lors d’une partie de battle royale, pas question de se retrouver largué parce que l’affichage ne suit pas. » Au coeur de cet eldorado : la carte graphique. Ce composant, le plus important et le plus cher du PC de joueur, a connu les plus grandes avancées techniques de cette dernière décennie. Il faut dire que ces processeurs ne se contentent plus de satisfaire leurs utilisateurs; ils ont aussi accaparé des tâches bien éloignées de la création et de l’affichage d’environnements 3D.
Cette révolution s’explique par leur structure même. Contrairement aux puces classiques, qui utilisent un petit nombre de coeurs très puissants et polyvalents, les GPU (Graphics Processing Unit) embarquent plusieurs milliers d’unités de calculs simples travaillant en parallèle. Ils profitent aussi d’une importante quantité de mémoire vive ultrarapide. Un mix gagnant pour alimenter les algorithmes qui animent les intelligences artificielles ou pour améliorer l’encodage vidéo. Et on les trouve aussi bien dans un PC classique que dans une voiture autonome ou un serveur. Le GPU Computing accélère désormais tous les domaines de la technologie. Petit tour d’horizon.
Illusions sur grand écran
Devenus crédibles depuis le film Jurassic Park (1993) de Steven Spielberg, les effets spéciaux reposent entièrement sur la puissance de ces cartes. En particulier sur la Quadro de Nvidia et la Radeon Pro WX d’AMD. Ces techniques interviennent dans plusieurs étapes : le dessin des objets, la création des effets ou l’élaboration des créatures 3D à incruster dans l’image. Des logiciels comme 3ds Max et Maya, tous les deux d’Autodesk, ou Cinema 4D de Maxon, exploitent tout leur potentiel pour gérer les textures, les sources lumineuses et les réflexions. Le procédé de matte painting (à l’origine, une vitre peinte qui ajoute des objets ou personnages aux prises de vue) est, lui aussi, passé au numérique depuis plusieurs années grâce aux performances des GPU.
L’élément moteur de l’apprentissage automatique
Utilisé pour la reconnaissance des visages sur Facebook ou la compréhension du langage naturel par Google, mais aussi quand il s’agit d’identifier un morceau de musique avec Shazam ou de classifier des images sur Pinterest, le machine learning explose depuis 2015. Derrière cette technologie, se cachent des processeurs graphiques qui rendent le traitement parallèle plus rapide et moins coûteux. Plutôt que de coder des routines logicielles avec un ensemble d’instructions spécifiques pour accomplir une tâche, la machine est « formée » à
l’aide d’une grande quantité de données et d’algorithmes dessinés, afin d’apprendre à exécuter cette opération.
Chef d’orchestre des voitures autonomes
Un véhicule sans chauffeur a besoin d’une puissance de calcul considérable. Car il doit gérer en temps réel toutes les données provenant des capteurs et savoir anticiper leur éventuelle défaillance. Une tâche prise en charge chez Tesla par le système Drive PX de Nvidia. Ce dernier a d’ailleurs annoncé début octobre l’arrivée du modèle Drive AGX, nommé Pegasus. Il embarquera plusieurs puces capables de traiter l’information en parallèle (320 milliards d’opérations par seconde). Volkswagen, Audi, Mercedes et bien sûr Tesla, sont déjà sur les rangs.
Une mine d’argent virtuel ... et réel
Bitcoin ou ethereum... le minage de ces cryptomonnaies ne se conçoit pas sans le recours à des cartes graphiques. Les ressources du PC sont exploitées lors du chiffrement des transactions, qui s’appuie sur la résolution de calculs mathématiques complexes pour lesquels les GPU se montrent très efficaces. Selon la contribution, on reçoit en retour une infime rétribution. De l’argent « presque » facile qui a conduit, l’été dernier, à la rupture de stock de cartes telles que la Radeon RX570 d’AMD et la GTX 1060 de Nvidia. Un bon filon que les deux fondeurs se sont empressés d’exploiter en proposant des modèles spécialisés pour cet usage, dépourvus de sortie vidéo.
Au top pour manipuler les molécules
Les jeux et la recherche médicale auraient-ils des atomes crochus ? Marc Baaden l’a prouvé. Le directeur du Laboratoire de biochimie théorique du CNRS exploite le moteur 3D Unity épaulé par des cartes graphiques spécialement conçues pour mener ses expérimentations. Il visualise ainsi dans l’espace un brin d’ADN et intervient sur celui-ci, le transforme ou encore simule ses réac- tions à l’ajout d’un polluant, à l’élévation de la température ou de la pression…
Supercalculateurs dans les nuages
Oracle Cloud, Amazon Web Services, Google CloudPlatorm, IBM Cloud, ou encore Microsoft Azure… toutes ces plateformes louent des serveurs de stockage à distance bardés de GPU. Ceux-ci sont destinés à effectuer des calculs ou à traiter des données pour de nombreuses entreprises. Analyses médicales, exploration sismique, visualisation d’images en très haute définition, simulations scientifiques, transcodage vidéo… leurs machines n’ont besoin que de quelques heures pour accomplir la tâche demandée. Un ordinateur classique, lui, mettrait des semaines à la réaliser.
Des radiographies en trois dimensions
Quand l’intelligence artificielle arrive en renfort de l’imagerie médicale, cela passe, là aussi, par les processeurs graphiques et, une fois de plus, par Nvidia. Il propose un procédé de posttraitement effectué en centre de données, et ce, sans que les hôpitaux aient besoin de changer leur matériel. La machine d’imagerie, même ancienne, fournit ainsi de meilleures informations en améliorant la qualité des clichés, voire en les représentant en 3D. Un dispositif compatible avec les appareils de radiologie, d’échographie, de scanner et d’IRM.
Le cerveau des drones
Pour se déplacer de façon autonome et sans heurter les obstacles qui les entourent, les drones embarquent quantité de capteurs. Et quoi de mieux qu’une puce graphique quand il faut gérer toutes leurs données à la volée ? C’est encore Nvidia qui s’y colle, avec son système Jetson. Une version allégée devrait être disponible pour assister les pilotes débutants, en leur laissant le plaisir de voler sans l’appréhension du crash.z