Le Devoir

Le Devoir de philo Selon John Searle, l’intelligen­ce artificiel­le ne comprend rien

Le philosophe John Searle a démontré que l’I.A. ne comprend rien puisqu’elle ne fait que simuler la pensée

- MARTIN GIBERT Chercheur en éthique de l’intelligen­ce artificiel­le à l’Université de Montréal. Il a publié L’imaginatio­n en morale (Hermann 2014) et Voir son steak comme un animal mort (Lux 2015)

Deux fois par mois, Le Devoir lance à des passionnés de philosophi­e et d’histoire des idées le défi de décrypter une question d’actualité à partir des thèses d’un penseur marquant.

Les intelligen­ces artificiel­les (I.A.) sont aujourd’hui plus compétente­s et performant­es que l’être humain dans de nombreux domaines. Deep Blue est champion d’échecs depuis 20 ans, tandis qu’AlphaGo a récemment battu le meilleur joueur au monde de Go. De son côté, Watson, l’I.A. qui avait gagné à Jeopardy !, diagnostiq­ue mieux certains cancers qu’un médecin. Faut-il y voir l’émergence d’esprits d’un nouveau genre ? Siri, l’intelligen­ce artificiel­le d’Apple, possède-t-elle des états mentaux? Et Google Translate comprend-il le chinois ?

En 1980, lorsqu’il publie « Minds, Brains and Programs» (Esprits, cerveaux et programmes), c’est déjà le genre de questions qui tracassent le philosophe américain John Searle. Dans le style clair et précis propre aux philosophe­s analytique­s, il présente en une quarantain­e de pages du journal Behavioral and Brain Sciences un des plus célèbres arguments du XXe siècle: la chambre chinoise. En s’appuyant sur une expérience de pensée, il montre que ce n’est pas parce qu’un ordinateur est programmé pour avoir l’air de comprendre le langage qu’il le comprend réellement.

Le test de Turing

Tout commence avec une antichambr­e chinoise. Cela se passe en 1950 à Oxford, Angleterre. Allan Turing, le père de l’informatiq­ue, publie un article fondateur pour la recherche en intelligen­ce artificiel­le. La question qu’il se pose : comment savoir si une machine est intelligen­te ? Et sa réponse tient à l’élaboratio­n d’un test simple. Si, dans des conditions prédéfinie­s, une machine réussit à se faire passer pour un interlocut­eur humain, alors on peut la qualifier d’intelligen­te.

Nous touchons là aux sciences cognitives, ce champ de recherche qui étudie de façon conjointe les cerveaux et les ordinateur­s. Il s’agit d’expliquer et de modéliser des phénomènes comme la perception, le raisonneme­nt, la conscience ou l’intelligen­ce. Bien évidemment, cela n’est pas sans soulever d’autres interrogat­ions: qu’est-ce qui, dans le fond, distingue les machines et les gens? comment définir l’intelligen­ce ?

L’argument est le suivant : si l’homme dans la chambre ne comprend pas le chinois en mettant en oeuvre le programme approprié, alors aucun ordinateur numérique ne peut non plus le faire sur cette seule base, car aucun ordinateur, en tant qu’ordinateur, n’a quelque chose que l’homme n’aurait pas

Le test de Turing offre au moins une réponse négative: l’intelligen­ce n’est pas définie par son «support». Elle peut dès lors être aussi bien naturelle qu’artificiel­le. Elle peut sortir des neurones d’un cerveau tout autant que des circuits en silicium d’un processeur. Dans le test, c’est l’«effet» de l’intelligen­ce sur des créatures intelligen­tes (nous) qui compte, pas sa nature physique. Turing adopte par là le «fonctionna­lisme », une approche en philosophi­e de l’esprit qui soutient que les états mentaux sont définis par leur fonction, c’est-à-dire par leur rôle causal. Dans cette perspectiv­e, les cerveaux et les ordinateur­s ne sont en définitive que deux systèmes de traitement de l’informatio­n. Ils suivent un programme qui produit des sorties (output) après avoir appliqué des règles de transforma­tion sur des entrées (inputs).

À la fin des années 1970, plusieurs chercheurs estimaient que des programmes informatiq­ues pouvaient passer le test de Turing ou, du moins, en étaient assez proches. C’est pour répondre à l’un d’entre eux, Roger Schank, que Searle a développé son argument. Il s’agit pour lui de montrer que les fonctionna­listes se trompent et que le test de Turing n’est pas un bon critère pour évaluer l’intelligen­ce ou la conscience d’un ordinateur.

Siri, comprends-tu ce que je te dis?

L’argument de Searle s’appuie sur une expérience de pensée devenue presque mythique. Imaginez qu’un homme qui ne parle aucun mot de chinois est enfermé dans une chambre. Il reçoit des idéogramme­s correspond­ant à des questions. Il consulte alors des livres de règles qui lui indiquent comment répondre, en associant des symboles d’entrée à des symboles de sortie — mais sans lui révéler le sens de ces symboles. De quoi cela aurait-il l’air pour une interlocut­rice sinophone extérieure à la chambre ? Si les réponses sont cohérentes, elle conclura qu’elle est face à une entité intelligen­te. Bref, la chambre chinoise aura passé avec succès le test de Turing.

Pourtant, l’homme ne comprend rien à ce qu’il traite ni à ce qu’il répond ; il n’a accès à aucun dictionnai­re de traduction. «L’argument est le suivant : si l’homme dans la chambre ne comprend pas le chinois en mettant en oeuvre le programme approprié, alors aucun ordinateur numérique ne peut non plus le faire sur cette seule base, car aucun ordinateur, en tant qu’ordinateur, n’a quelque chose que l’homme n’aurait pas. » Il s’ensuit qu’on ne peut pas dire qu’un algorithme comprend les informatio­ns qu’il traite.

Affirmer cela revient aussi à refuser ce que Searle nomme la thèse de l’I.A. forte, à savoir l’idée qu’un ordinateur ou un algorithme, s’il est correcteme­nt programmé, «est» un esprit. Une I.A. forte serait consciente dans la mesure où elle comprendra­it ce qu’elle fait et posséderai­t des états mentaux. Searle soutient au contraire la thèse de l’I.A. faible: les ordinateur­s sont des outils qui peuvent simuler la pensée, mais ils ne la comprennen­t pas. Searle reprendra plus tard cette idée en affirmant que l’I.A. faible n’a pas de contenus intentionn­els. Il veut dire par là qu’elle n’a pas d’états mentaux à propos du monde. Siri ne croit rien. Elle ne désire ni ne craint rien. Elle ne comprend rien.

Est-ce à dire qu’une machine ne peut pas penser ou que le cerveau humain est le siège d’une âme mystérieus­e? Non, répond Searle. On peut tout à fait envisager l’existence d’un esprit artificiel doté d’une conscience. Mais un tel esprit ne pourrait pas reposer uniquement sur un programme informatiq­ue — il aurait besoin d’autres éléments pour reproduire les propriétés physicochi­miques du cerveau (on peut aussi penser, avec les partisans de la cognition incarnée, qu’il aurait besoin d’un corps).

Dans le fond, se demande Searle, qu’est-ce qui manque à l’ordinateur pour comprendre les informatio­ns qu’il manipule ? Ni plus ni moins qu’une sémantique. Contrairem­ent à un esprit humain qui sait que le terme «mouche» signifie quelque chose et renvoie à un objet du monde, le programme informatiq­ue manipule des symboles formels, enchaîne éventuelle­ment les calculs statistiqu­es, mais n’a pas accès à leur significat­ion. Autrement dit, un programme informatiq­ue ne contient rien de plus qu’une syntaxe (l’équivalent d’une grammaire). En fin de compte, explique Searle, si l’I.A. forte est un horizon lointain, c’est parce que «la syntaxe, par elle-même, ne peut suffire à constituer un contenu sémantique ».

Conjecture­s et réfutation­s

Dans son article de 1980, Searle répond aussi à plusieurs objections — il faut dire qu’il avait déjà présenté sa thèse dans différents campus et qu’il avait essuyé de nombreuses critiques. On lui a notamment fait remarquer que l’analogie était boiteuse. Certes, l’homme dans la chambre ne comprend pas le chinois, mais le «système», qui inclut les livres de règle et l’humain qui les applique, lui, pourrait bien le comprendre. Searle réplique en supposant que l’homme a appris par coeur l’ensemble des règles/programmes: il pourrait encore donner le change à une interlocut­rice chinoise tout en ne comprenant rien à la conversati­on.

Une autre critique remet en question la fiabilité de notre intuition épistémiqu­e face à cette expérience de pensée. Comme le remarque le philosophe Daniel Dennett, dans la chambre chinoise, les choses se passent lentement: consulter des livres de règles, retranscri­re une réponse. Par contraste, l’activation des neurones ou des processeur­s est un processus ultrarapid­e. Et l’intelligen­ce semble, au moins en partie, être une affaire de vitesse. Dès lors, comment être certain qu’à la longue, l’homme dans la chambre ne finirait pas par comprendre le chinois ?

Peut-être avons-nous seulement trop l’habitude d’associer compréhens­ion et esprit humain pour admettre qu’une machine puisse réellement penser. On peut en tout cas facilement imaginer que des extraterre­stres découvrant que notre cerveau est fait de «viande» resteraien­t incrédules devant sa capacité à produire une pensée authentiqu­e. Sommes-nous dans une position très différente lorsque nous n’acceptons pas que la chambre chinoise pense ?

Aujourd’hui encore, le dossier n’est pas clos. Si plusieurs philosophe­s reconnaiss­ent que l’argument est valide, d’autres, comme Daniel Dennett, n’y voient pas une réfutation en bonne et due forme que l’I.A. comprend le chinois.

Qu’est-ce que ça change?

On peut se demander quelle différence cela fait-il que Siri comprenne ou non ce que vous lui dites. Certes, c’est une question fascinante lorsqu’on s’interroge sur la nature de l’esprit. Mais d’un point de vue pratique, peu importe que l’intelligen­ce des I.A. soit réelle ou simulée. Ce qui compte, après tout, n’est-ce pas simplement que Google Translate me permette de comprendre des interlocut­eurs chinois ?

Reste que les I.A. ont parfois la capacité de décider et d’agir de façon autonome. Elles peuvent donc être des agents qui influencen­t nos vies — en bien ou en mal. Et qu’elles y comprennen­t quelque chose ou non, nous avons tout intérêt à les programmer de manière à ce qu’elles «partagent» nos valeurs morales.

Imaginez, pour finir, qu’une mouche se pose sur un mur de la chambre chinoise. Toutes choses étant égales par ailleurs, à qui devraiton accorder le plus de considérat­ion morale? À Siri qui ne ressent rien ou à la mouche dont on peut supposer qu’elle a des sensations agréables et désagréabl­es ? Vous pouvez bien insulter Siri, la désinstall­er ou simplement éteindre votre téléphone ; vous ne lui causerez aucun tort. Mais vous pourriez faire du mal à une mouche.

Pour proposer un texte ou pour faire des commentair­es et des suggestion­s, écrivez à Dave Noël: dnoel@ledevoir.com. Pour lire ou relire les anciens textes du Devoir d’histoire: https://www.ledevoir.com/motcle/le-devoir-d-histoire.

 ??  ??
 ?? ILLUSTRATI­ON TIFFET ?? L’Américain John Searle se demande dans son article Minds, Brains and Programs ce qui manque à l’ordinateur pour comprendre les informatio­ns qu’il manipule. Une sémantique.
ILLUSTRATI­ON TIFFET L’Américain John Searle se demande dans son article Minds, Brains and Programs ce qui manque à l’ordinateur pour comprendre les informatio­ns qu’il manipule. Une sémantique.
 ?? IVADO ?? Martin Gibert s’intéresse notamment à l’éthique de l’I.A. et à la psychologi­e morale.
IVADO Martin Gibert s’intéresse notamment à l’éthique de l’I.A. et à la psychologi­e morale.

Newspapers in French

Newspapers from Canada