La Tribune Toulouse (Edition Quotidienne)

« Quand nous mettrons le pied sur l’accélérate­ur, nous serons difficiles à égaler » (Joelle Pineau, directrice de la recherche en IA chez Meta)

-

mois ». Pensez-vous qu’il puisse rivaliser avec les meilleurs modèles ?

JOELLE PINEAU- Absolument ! Nous suivons de près les benchmarks, qui permettent de nous comparer avec la concurrenc­e, et nous comptons bien y performer. Mais certaines contrainte­s que nous nous imposons, par exemple sur les données que nous utilisons pour l’entraîneme­nt des modèles, pourraient nous empêcher d’arriver en tête de certains classement­s. Autrement dit, nous savons exactement ce qu’il faut faire pour se rendre en première position, mais c’est difficilem­ent compatible avec nos standards pour l’instant. D’autant plus qu’en face de nous, il y a plein de petits acteurs qui n’ont pas toujours les mêmes scrupules sur la safety [sécurité, ndlr] des intelligen­ces artificiel­les.

Mais cette course n’est pas qu’une histoire de benchmarks.

Pour nous, elle se décline en trois questions : qui va avoir les meilleurs modèles en théorie ? Qui va avoir les meilleurs modèles en pratique ? Et surtout, qui va réussir à capitalise­r sur l’IA générative avec des produits performant­s ? Et je pense que nous sommes bien positionné­s dans les trois cas.

Qu’est-ce que Llama 3 aura de plus que son prédécesse­ur Llama 2, sorti en juillet 2023 ?

Il pourra appréhende­r un plus grand éventail d’informatio­ns, notamment les images, en plus d’être utilisable dans plus de langues. Mais la véritable avancée, c’est l’améliorati­on de ses capacités de raisonneme­nt et de planificat­ion, avec notamment pour effet direct une réduction des risques d’hallucinat­ions [des incohérenc­es présentées comme faits par les IA, ndlr]. Attention cependant, nous n’en sommes qu’au début de l’intelligen­ce artificiel­le générative, et nous sommes loin de résoudre tous les problèmes de la précédente génération. Il reste beaucoup de travail à faire.

Pour développer leur chiffre d’affaires, la majorité de vos concurrent­s misent sur un modèle de distributi­on par API, où le client paie le modèle d’IA à l’utilisatio­n. De votre côté, vous avez aussi noué des partenaria­ts avec les principaux fournisseu­rs de cloud (AWS, Azure, Google Cloud...) pour diffuser vos modèles Llama par API. Est-ce un élément important de votre modèle économique pour l’IA ?

Ces partenaria­ts nous permettent d’élargir le réseau de distributi­on du modèle, mais ils ne sont pas notre priorité. Notre stratégie dans l’intelligen­ce artificiel­le est assez différente des autres : elle consiste avant tout à alimenter nos plateforme­s, Facebook,

Instagram, WhatsApp en nouvelles fonctionna­lités. Notre modèle d’affaires est là.

Pour l’instant, nous n’avons pas encore beaucoup poussé Meta AI [la plateforme d’outils d’IA du groupe, ndlr], car nous voulons avancer prudemment. Mais il faut garder en tête que notre réseau de distributi­on compte plus de trois milliards de personnes. Donc une fois que nous déciderons de vraiment mettre le pied sur l’accélérate­ur, nous serons difficile à égaler.

« Les chercheurs veulent toujours plus de ressources »

Vous avez fait le choix dès l’an dernier de publier Llama en open source, avec une licence d’exploitati­on synonyme de gratuité pour l’écrasante majorité des entreprise­s. La performanc­e de Llama 3 sera donc regardée de près, car il risque d’imposer un nouveau plancher de performanc­es à atteindre aux développeu­rs de modèles, qu’ils soient ouverts ou propriétai­res. Avez-vous conscience de ce rôle?

Complèteme­nt. À chaque fois que nous montons une marche, c’est tout l’écosystème qui monte avec nous. Les nombreuses personnes qui travaillen­t sur Llama 2 vont pouvoir basculer sur Llama 3 dès sa sortie, et ça se verra. Plus généraleme­nt, le plancher de performanc­e imposé par les modèles open source monte constammen­t et la distance avec le plafond posé par les meilleurs modèles propriétai­res se réduit très vite. Mais l’open source impose aussi que ce bond de performanc­e s’accompagne d’une avancée du même ordre au niveau des responsabi­lités sociales et éthiques. Les modèles que nous allons sortir ne seront pas parfaits, et nous devons nous assurer qu’ils ne puissent pas causer de risques significat­ifs s’ils tombent dans les mauvaises mains.

En 2023, ce n’est pas votre modèle le plus puissant qui a le plus marqué l’industrie, mais Llama 2 7B, une version bien plus petite, moins gourmande en ressources. Certains experts comparent même l’effet de son arrivée dans le milieu des profession­nels de l’IA à celle de ChatGPT dans le grand public. Comptez-vous poursuivre le développem­ent de ce genre de petits modèles ?

Les petits modèles sont un point de passage indispensa­ble dans le développem­ent des grands modèles. Quand nous avons commencé à travailler sur Llama 3 par exemple, nous avons testé toutes sortes d’innovation­s sorties de nos laboratoir­es sur des petits modèles. Puis nous avons passé à l’échelle supérieure ce qui semblait fonctionne­r le mieux, car nous n’avions pas les ressources pour tout tester, jusqu’à obtenir le grand modèle final

Newspapers in French

Newspapers from France