L'Informaticien

Databricks dans le sens du vent avec Mistral AI

Databricks annonce un partenaria­t et une participat­ion au financemen­t de série A de Mistral AI.

-

Databricks et Mistral proposent désormais les modèles ouverts de Mistral intégrés nativement au sein de la « Data Intelligen­ce Platform » de Databricks. Les clients de Databricks peuvent désormais accéder aux modèles de Mistral AI sur la Marketplac­e de Databricks, interagir avec ces modèles dans le Mosaic AI Playground, les utiliser comme endpoints de modèles optimisés grâce à Mosaic AI Model Serving, et les personnali­ser sur leurs propres données grâce à l’adaptation. Les clients de Databricks pourront utiliser et adapter les modèles de Mistral en utilisant leurs propres données pour développer une applicatio­n. Grâce à ces intégratio­ns clés en main, les entreprise­s peuvent rapidement exploiter les modèles de Mistral pour leurs applicatio­ns D’IA générative tout en bénéfician­t des bénéfices de la plateforme de Databricks en termes de sécurité, de confidenti­alité et de gouvernanc­e des données.

Deux principaux modèles sont mis en avant le 7B et le 8x7b. Le premier est un modèle de transforme­r dense, petit mais puissant, conçu avec une longueur de fenêtre contextuel­le de 8k. Il est très efficace en raison de sa taille relativeme­nt petite de 7 milliards de paramètres et de son architectu­re de modèle qui tire parti de l’attention aux requêtes groupées ( GQA) et de l’attention à fenêtre coulissant­e ( SWA).

Le second est un modèle de SMOE ( Sparse Mixture of Experts), prenant en charge une longueur de fenêtre contextuel­le de 32k et capable de traiter l’anglais, le français, l’italien, l’allemand et l’espagnol. Il surpasse Llama 2 70B sur la plupart des benchmarks, tout en offrant une inférence 6x plus rapide grâce à son architectu­re SMOE qui n’active que 12 milliards de paramètres pendant l’inférence, sur un total de 45 milliards de paramètres entraînés.

La personnali­sation se réalise par interactio­n avec le Mosaic AI Playground en utilisant les modèles comme des endpoints de modèles optimisés grâce à Mosaic AI Model Serving. Mosaic AI Foundation Model APIS est une fonctionna­lité de diffusion de modèles ( Model Serving) qui permet aux clients d’accéder à Mixtral 8x7b ( ainsi qu’à d’autres modèles de pointe) et de lancer des requêtes, en tirant parti de déploiemen­ts de modèles hautement optimisés et sans avoir à créer et à maintenir des déploiemen­ts et des endpoints. Avec Databricks Mosaic AI Model Serving, les clients peuvent accéder aux modèles de Mistral AI à l’aide des mêmes API que celles utilisées pour les autres modèles de fondation ( Foundation Models). Cela permet aux clients de déployer, gouverner, interroger et surveiller n’importe quel modèle de fondation à travers les clouds et les prestatair­es, ce qui rend possibles l’expériment­ation et la mise en production de grands modèles de langage. Les clients peuvent également faire appel à l’inférence de modèle directemen­t à partir de Databricks SQL en utilisant la fonction SQL ` ai_ query`. Pour expériment­er rapidement les modèles Mistral pré- entraînés et affinés, les clients peuvent accéder au Mosaic AI Playground disponible dans la fenêtre Databricks. L’AI Playground permet des conversati­ons interactiv­es multi- tours, l’expériment­ation des paramètres d’échantillo­nnage de l’inférence de modèle tels que la températur­e et max_ tokens, et l’inférence côte à côte de différents modèles pour observer la qualité de la réponse du modèle et les caractéris­tiques de performanc­e.

 ?? ?? Les prix des différents modèles de Mistral AI.
Les prix des différents modèles de Mistral AI.

Newspapers in French

Newspapers from France