Le fantasme de l’IA générale est de retour
Le directeur de Meta a affirmé que son groupe planchait sur une super intelligence artificielle capable de tout faire, se plaçant dans la course avec Google et OpenAI. Mais ses propos doivent être tempérés, affirme une experte
Une nouvelle pièce dans la machine, une percée technologique importante en vue ou un simple coup marketing? Une chose est certaine, Mark Zuckerberg a réussi à faire parler de lui. Dans la nuit de jeudi à vendredi, le directeur de Meta (maison mère de WhatsApp, Facebook et Instagram) a évoqué sa volonté d’avancer sur la piste de l’intelligence artificielle générale (IAG) dans le cadre d’un entretien avec le site spécialisé The Verge. Une sorte de super IA, capable de tout faire, de «penser» par elle-même, de gérer des projets et de résoudre des problèmes complexes. L’occasion de faire le point sur une technologie au coeur de nombreux fantasmes.
Intitulé «Le nouvel objectif de Mark Zuckerberg est de créer une intelligence artificielle générale», l’article de The Verge indique que le directeur de Meta veut entrer dans cette course, excluant de laisser OpenAI (éditeur de ChatGPT) et Google seuls sur ce terrain. «Nous sommes arrivés à la conclusion que, pour
«Je n’ai pas de définition lapidaire en une phrase pour l’intelligence artificielle générale» MARK ZUCKERBERG, DIRECTEUR DE META
construire les produits que nous voulons, nous devons créer de l’intelligence générale», a affirmé Mark Zuckerberg, poursuivant: «Je pense qu’il est important de le faire savoir parce que beaucoup des meilleurs chercheurs veulent travailler sur des problèmes plus ambitieux.»
Clairement, le fondateur de Meta veut montrer ses muscles. Il affirme que d’ici à la fin de cette année, son groupe possédera 600 000 processeurs graphiques (GPU), soit une puissance de calcul phénoménale. Avec comme but de créer cette fameuse IAG.
Mais Mark Zuckerberg luimême n’est pas très sûr de sa signification exacte: «Je n’ai pas de définition lapidaire en une phrase, admet-il. On peut discuter pour savoir si l’intelligence générale s’apparente à une intelligence de niveau humain, ou si elle s’apparente à une intelligence de niveau humain-plus, ou encore à une superintelligence d’un futur lointain.» Selon le responsable, cette IAG va venir progressivement.
Aujourd’hui, en se basant sur son modèle de langage Llama 2, sorti fin 2023, Meta pense qu’il a les moyens, en développant aujourd’hui sa version 3, de s’approcher d’une IAG. Et celle-ci pourrait être open source, esquisse Mark Zuckerberg: elle pourrait donc être mise à la disposition de tous, dit le directeur de Meta, sans l’assurer totalement.
Que penser de cette annonce? «A mon avis, cette annonce de Mark Zuckerberg est une façon de remettre Meta sur le devant de la scène. En d’autres mots, c’est une opération de communication», estime Sabine Süsstrunk, directrice du Laboratoire d’images et représentation visuelle de la Faculté informatique et communications de l’EPFL.
A ce flou se rajoute le souci de définir l’IAG clairement. «Selon moi, cette super IA peut apprendre à effectuer n’importe quelle tâche que les humains peuvent accomplir. En d’autres termes, c’est un modèle d’IA qui peut auto-apprendre de son environnement à partir de différentes modalités d’entrée (visuelle, audio, tactile) et décider ensuite de la manière d’exécuter une tâche comme le ferait un humain», poursuit la professeure.
Des limites concrètes
Et selon Sabine Süsstrunk, aucune entreprise, de Meta à OpenAI, en passant par Google, ne peut prétendre s’approcher d’une IAG. «Nous ne disposons pas d’un modèle d’IA capable d’écrire, de conduire une voiture et de cuisiner, par exemple. Le seul modèle capable d’écrire peut en partie auto-apprendre à mieux écrire, mais il ne peut pas conduire. Nous avons besoin d’un modèle formé différemment qui a vu de nombreux cas de route pour cela. Et par «beaucoup», nous entendons des millions d’images et de vidéos de scènes routières… Soit bien plus que ce qu’un conducteur novice a vu avant de passer son permis de conduire.»
La spécialiste poursuit cette analogie: «Les humains peuvent apprendre à partir de beaucoup moins d’exemples, mais en incorporant plus de modalités (informations visuelles, auditives, paroles et texte) que les modèles d’IA actuels ne peuvent le faire.»
Il y a quelques jours, c’est DeepMind, une filiale de Google, qui a elle aussi évoqué l’IAG. Récemment, la société a confronté son système AlphaGeometry à une série de problèmes de géométrie des Olympiades internationales de mathématiques. AlphaGeometry a obtenu un score de 83%, un résultat proche de celles des médaillés d’or de la compétition. «Il s’agit d’une étape cruciale vers la construction d’une IAG. C’est un autre exemple qui montre comment l’IA peut nous aider à faire progresser la science et à mieux comprendre les processus sous-jacents qui déterminent le fonctionnement du monde», a affirmé au Financial Times Quoc V. Le, chercheur chez DeepMind.
Analogie avec les drones
Faut-il s’en émerveiller ou craindre qu’une IAG hors de contrôle se retourne contre les humains? «Comme toute technologie, elle sera utilisée pour faire le «bien», mais elle peut aussi faire du mal, répond Sabine Süsstrunk. Plus une technologie est sophistiquée, plus les conséquences sont importantes.
Prenons l’exemple des drones. Ils sont incroyablement utiles pour les secours en cas de catastrophe, car ils peuvent aller dans des endroits inaccessibles aux humains, ils peuvent également créer des vidéos très intéressantes de la descente du Lauberhorn en suivant les skieurs à leur vitesse. Mais ils sont aussi utilisés pour bombarder des villes.»
■