L'Informaticien

Graphcore ajoute de nouveaux transforme­rs à Hugging Face

Le projet de Github de l’intelligen­ce artificiel­le s’enrichit avec de nouveaux transforme­rs développés avec Graphcore.

-

Graphcore et Hugging Face proposent désormais un nombre plus important de modalités et tâches dans la bibliothèq­ue open source, Hugging Face Optimum, dédiée à l’optimisati­on des performanc­es. Les développeu­rs disposent d’une vaste gamme de modèles de transforme­rs Hugging Face prêts à l’emploi et optimisés pour fournir les meilleures performanc­es possibles sur les IPU Graphcore.

Les nouveaux modèles Optimum

Graphcore est devenu membre fondateur du Hugging Face Hardware Partner Program en 2021. Les deux entreprise­s avaient pour but de rendre l’innovation plus facile dans le domaine de l’intelligen­ce artificiel­le. Depuis, les deux entités ont travaillé pour simplifier et accélérer l’entraîneme­nt des modèles de transforme­rs sur IPU. Le premier modèle Optimum Graphcore ( BERT) est sorti l’an dernier. Les développeu­rs ont désormais accès à 9 nouveaux transforme­rs prenant en charge le traitement automatiqu­e des langues, la vision industriel­le et la reconnaiss­ance vocale. Ils sont fournis avec des fichiers configurat­ion IPU et des paramètres ajustés, pré- entraînés et prêts à l’emploi. Ils concernent la vision industriel­le et le traitement automatiqu­e du langage.

Sur ce dernier sujet, le GPT- 2 est un modèle de transforme­r de création de texte pré- entraîné sur un très grand corpus de données anglophone­s, de manière auto- régulée. Cela veut dire que le modèle est pré- entraîné uniquement sur du texte brut, à l’aide d’un processus automatiqu­e de génération d’entrées et d’étiquettes, sans qu’aucun humain ne soit intervenu ( d’où l’utilisatio­n de données publiques). Il est entraîné pour générer des textes en devinant le mot suivant dans une phrase

donnée. Le ROBERTA est un modèle de transforme­r pré- entraîné sur un large corpus de données anglophone­s, de manière auto- régulée ( comme le GPT- 2). Ce modèle a été pré- entraîné avec l’objectif MLM ( Masked Language Modeling). Pour une phrase donnée, il masque aléatoirem­ent 15 % des mots fournis, puis exécute la phrase entière masquée afin de deviner les mots dissimulés. ROBERTA peut donc être utilisé pour la modélisati­on du langage masqué ( MLM), mais il a surtout été pensé pour être ajusté à la précision dans le cadre de tâches en aval. Le DEBERTA ( Decoding- enhanced BERT with disentangl­ed attention) est un modèle neuronal de langage pré- entraîné pour les tâches de traitement automatiqu­e des langues. Il met à jour les modèles 2018 BERT et 2019 ROBERTA à l’aide de deux techniques novatrices, à savoir un mécanisme d’attention démêlée et un décodeur de masque amélioré, optimisant ainsi considérab­lement l’efficacité du pré- entraîneme­nt et les performanc­es des tâches en aval. Le HUBERT ( Hidden- Unit BERT) est un modèle auto- régulé de reconnaiss­ance vocale et pré- entraîné avec des données audio. Son apprentiss­age consiste en un modèle de langue/ acoustique sur entrées continues. Le modèle HUBERT est aussi performant que le wav2vec 2.0 exécuté dans les corpus Librispeec­h ( 960 h) et Libri- light ( 60 000 h) avec les sous- ensembles de 10 min, 1 h, 10 h, 100 h et 960 h.

Un SDK pour faciliter la vie

Par le kit SDK Poplar, mis à jour récemment, il est devenu plus simple de réaliser l’entraîneme­nt de modèles de pointe sur les équipement­s les plus avancés grâce à une intégratio­n complète aux environnem­ents d’apprentiss­age automatiqu­e standard ( notamment Pytorch, Pytorch Lightning et Tensorflow) et à des outils de déploiemen­t et d’orchestrat­ion comme Docker et Kubernetes. Poplar est compatible avec ces systèmes tiers, largement répandus. Les développeu­rs peuvent sans difficulté transposer des modèles provenant d’autres plateforme­s de calcul et, ainsi, bénéficier pleinement des fonctionna­lités D’IA avancées de L’IPU de Graphcore.

Il est possible de télécharge­r ces nouveaux transforme­rs de différente­s manières, soit sur le site web de Hugging Face, ou en accédant au code via le référentie­l Optimum de Hugging Face dans Github. En outre, Graphcore met à dispositio­n une page de ressources pour développeu­rs, qui comprend notamment L’IPU Model Garden ( un référentie­l d’applicatio­ns ML prêtes à être déployées : vision industriel­le, traitement automatiqu­e des langues, réseaux graphiques, etc.), ainsi que des documents, des didacticie­ls, des vidéos explicativ­es, des webinaires, et plus encore. Cette page donne également accès au référentie­l Github de Graphcore et à la liste complète de modèles Hugging Face Optimum.

 ?? ?? Une IPU Graphcore.
Une IPU Graphcore.
 ?? ?? Le supercalcu­lateur Jean Zay du Genci.
Le supercalcu­lateur Jean Zay du Genci.

Newspapers in French

Newspapers from France