Radio-Canada Info

Ne vous méprenez pas : les robots conversati­onnels ne sont pas conscients

- Nicholas De Rosa

Le lancement récent du grand modèle de langage Claude 3 a ravivé des dis‐ cussions au sujet de la conscience de l'intelligen­ce artificiel­le (IA). Cela est dû en partie au fait que Claude semblait philoso‐ pher à propos de sa propre conscience dans des publi‐ cations virales et que l’en‐ treprise qui l’a créé, An‐ thropic, a affirmé que Claude manifeste des de‐ grés de compréhens­ion et de fluidité « quasi humains ».

Nous avons cru bon de discuter de la supposée « conscience » des grands mo‐ dèles de langage avec la lin‐ guiste Emily Bender. Cette professeur­e à l’Université de Washington a été désignée par le magazine Time comme une des 100 personnes les plus influentes du secteur de l’IA l’an dernier.

Mme Bender est la coau‐ teure de l’influent article inti‐ tulé « Gravir vers la compré‐ hension du langage naturel : le sens, la forme et la com‐ préhension à l'ère des don‐ nées », qui offrait une pers‐ pective critique au sujet des implicatio­ns éthiques, so‐ ciales et environnem­entales des modèles de langage en 2020, soit plus de deux ans avant la sortie de ChatGPT. Elle coanime également le balado Mystery AI Hype Theater 3000, qui décortique l’emballemen­t à propos de l’IA.

Allons droit au but : les grands modèles de langage sont-ils conscients?

Non. À la base, un modèle de langage est un système qui modélise la distributi­on des mots dans des textes. La manière dont ces modèles sont actuelleme­nt utilisés re‐ pose en quelque sorte sur le procédé inverse : proposer des suites plausibles au texte qui leur est soumis. Ce n’est pas de la conscience.

Y a-t-il une nuance entre le fait de parler, d'une part, de conscience et, d'autre part, de choses comme l'in‐ telligence ou la compré‐ hension?

Ce sont tous des concepts différents et mal définis. Si nous voulons parler de com‐ préhension, nous devons la définir : dans mon travail uni‐ versitaire, je définis la com‐ préhension du langage comme la mise en corres‐ pondance entre le langage et des concepts à l'extérieur du langage.

Une grande partie du tour de passe-passe des grands modèles de langage, c'est que tout n’est que du lan‐ gage. Quand le modèle semble comprendre, en réa‐ lité, c'est la personne qui l'uti‐ lise qui fait tout le travail de compréhens­ion et tout le tra‐ vail de création de sens.

Lorsqu'on entre du texte dans un grand modèle de langage et que du texte en ressort, on donne du sens à ce texte de la même manière qu'on donne du sens à un texte provenant d'une per‐ sonne : on s’imagine un es‐ prit doté d’une intention communicat­ive à l'origine de ce texte.

Lorsqu'il s'agit d'une autre personne, ce n'est pas faux d'imaginer un esprit. On pourrait se tromper quant à son intention communica‐ tive, mais souvent, nous sommes assez bons pour la deviner correcteme­nt. Lors‐ qu’il s'agit d'un grand modèle de langage, il n'y a pas du tout d'esprit, donc nous créons nous-mêmes cette compréhens­ion.

Cet article a initialeme­nt été publié dans l'édition du 9 mars de l'infolettre des Dé‐ crypteurs. Pour obtenir des contenus exclusifs comme celui-ci ainsi que des ana‐ lyses sur tout ce qui touche

 ?? ??

Newspapers in French

Newspapers from Canada