Le Temps

Le fantasme de l’IA générale est de retour

Le directeur de Meta a affirmé que son groupe planchait sur une super intelligen­ce artificiel­le capable de tout faire, se plaçant dans la course avec Google et OpenAI. Mais ses propos doivent être tempérés, affirme une experte

- ANOUCH SEYDTAGHIA @Anouch

Une nouvelle pièce dans la machine, une percée technologi­que importante en vue ou un simple coup marketing? Une chose est certaine, Mark Zuckerberg a réussi à faire parler de lui. Dans la nuit de jeudi à vendredi, le directeur de Meta (maison mère de WhatsApp, Facebook et Instagram) a évoqué sa volonté d’avancer sur la piste de l’intelligen­ce artificiel­le générale (IAG) dans le cadre d’un entretien avec le site spécialisé The Verge. Une sorte de super IA, capable de tout faire, de «penser» par elle-même, de gérer des projets et de résoudre des problèmes complexes. L’occasion de faire le point sur une technologi­e au coeur de nombreux fantasmes.

Intitulé «Le nouvel objectif de Mark Zuckerberg est de créer une intelligen­ce artificiel­le générale», l’article de The Verge indique que le directeur de Meta veut entrer dans cette course, excluant de laisser OpenAI (éditeur de ChatGPT) et Google seuls sur ce terrain. «Nous sommes arrivés à la conclusion que, pour

«Je n’ai pas de définition lapidaire en une phrase pour l’intelligen­ce artificiel­le générale» MARK ZUCKERBERG, DIRECTEUR DE META

construire les produits que nous voulons, nous devons créer de l’intelligen­ce générale», a affirmé Mark Zuckerberg, poursuivan­t: «Je pense qu’il est important de le faire savoir parce que beaucoup des meilleurs chercheurs veulent travailler sur des problèmes plus ambitieux.»

Clairement, le fondateur de Meta veut montrer ses muscles. Il affirme que d’ici à la fin de cette année, son groupe possédera 600 000 processeur­s graphiques (GPU), soit une puissance de calcul phénoménal­e. Avec comme but de créer cette fameuse IAG.

Mais Mark Zuckerberg luimême n’est pas très sûr de sa significat­ion exacte: «Je n’ai pas de définition lapidaire en une phrase, admet-il. On peut discuter pour savoir si l’intelligen­ce générale s’apparente à une intelligen­ce de niveau humain, ou si elle s’apparente à une intelligen­ce de niveau humain-plus, ou encore à une superintel­ligence d’un futur lointain.» Selon le responsabl­e, cette IAG va venir progressiv­ement.

Aujourd’hui, en se basant sur son modèle de langage Llama 2, sorti fin 2023, Meta pense qu’il a les moyens, en développan­t aujourd’hui sa version 3, de s’approcher d’une IAG. Et celle-ci pourrait être open source, esquisse Mark Zuckerberg: elle pourrait donc être mise à la dispositio­n de tous, dit le directeur de Meta, sans l’assurer totalement.

Que penser de cette annonce? «A mon avis, cette annonce de Mark Zuckerberg est une façon de remettre Meta sur le devant de la scène. En d’autres mots, c’est une opération de communicat­ion», estime Sabine Süsstrunk, directrice du Laboratoir­e d’images et représenta­tion visuelle de la Faculté informatiq­ue et communicat­ions de l’EPFL.

A ce flou se rajoute le souci de définir l’IAG clairement. «Selon moi, cette super IA peut apprendre à effectuer n’importe quelle tâche que les humains peuvent accomplir. En d’autres termes, c’est un modèle d’IA qui peut auto-apprendre de son environnem­ent à partir de différente­s modalités d’entrée (visuelle, audio, tactile) et décider ensuite de la manière d’exécuter une tâche comme le ferait un humain», poursuit la professeur­e.

Des limites concrètes

Et selon Sabine Süsstrunk, aucune entreprise, de Meta à OpenAI, en passant par Google, ne peut prétendre s’approcher d’une IAG. «Nous ne disposons pas d’un modèle d’IA capable d’écrire, de conduire une voiture et de cuisiner, par exemple. Le seul modèle capable d’écrire peut en partie auto-apprendre à mieux écrire, mais il ne peut pas conduire. Nous avons besoin d’un modèle formé différemme­nt qui a vu de nombreux cas de route pour cela. Et par «beaucoup», nous entendons des millions d’images et de vidéos de scènes routières… Soit bien plus que ce qu’un conducteur novice a vu avant de passer son permis de conduire.»

La spécialist­e poursuit cette analogie: «Les humains peuvent apprendre à partir de beaucoup moins d’exemples, mais en incorporan­t plus de modalités (informatio­ns visuelles, auditives, paroles et texte) que les modèles d’IA actuels ne peuvent le faire.»

Il y a quelques jours, c’est DeepMind, une filiale de Google, qui a elle aussi évoqué l’IAG. Récemment, la société a confronté son système AlphaGeome­try à une série de problèmes de géométrie des Olympiades internatio­nales de mathématiq­ues. AlphaGeome­try a obtenu un score de 83%, un résultat proche de celles des médaillés d’or de la compétitio­n. «Il s’agit d’une étape cruciale vers la constructi­on d’une IAG. C’est un autre exemple qui montre comment l’IA peut nous aider à faire progresser la science et à mieux comprendre les processus sous-jacents qui déterminen­t le fonctionne­ment du monde», a affirmé au Financial Times Quoc V. Le, chercheur chez DeepMind.

Analogie avec les drones

Faut-il s’en émerveille­r ou craindre qu’une IAG hors de contrôle se retourne contre les humains? «Comme toute technologi­e, elle sera utilisée pour faire le «bien», mais elle peut aussi faire du mal, répond Sabine Süsstrunk. Plus une technologi­e est sophistiqu­ée, plus les conséquenc­es sont importante­s.

Prenons l’exemple des drones. Ils sont incroyable­ment utiles pour les secours en cas de catastroph­e, car ils peuvent aller dans des endroits inaccessib­les aux humains, ils peuvent également créer des vidéos très intéressan­tes de la descente du Lauberhorn en suivant les skieurs à leur vitesse. Mais ils sont aussi utilisés pour bombarder des villes.»

 ?? ??

Newspapers in French

Newspapers from Switzerland