ENTRETIEN AVEC STANISLAS DEHAENE
« Notre objectif est de décrypter le code neural du langage »
Mathématicien de formation, considéré comme le spécialiste français des neurosciences cognitives, Stanislas Dehaene s’est longtemps intéressé à la conscience et a démontré l’existence dans le cerveau d’un « espace neuronal de travail »: un espace mental dédié à toute tache consciente. Il dirige aujourd’hui le centre de recherche NeuroSpin, au CEA de ParisSaclay, où sont regroupés de puissants instruments d’imagerie cérébrale. Ces technologies de pointe permettent d’observer le cerveau en fonctionnement avec une très grande précision. Son équipe étudie ainsi les mécanismes cérébraux à l’origine de nos capacités cognitives de haut niveau, comme les mathématiques et le langage. Dans les cours qu’il donne au Collège de France, Stanislas Dehaene propose que toutes ces capacités soient sous-tendues par une aptitude propre au cerveau humain : celle d’assembler des symboles pour former des représentations mentales d’ordre supérieur. Cette compétence combinatoire, sélectionnée au fil de l’évolution, ferait de l’homme une espèce si singulière.
La Recherche Dans votre cours au Collège de France, vous expliquez que certains animaux peuvent, comme les hommes, apprendre à communiquer par le biais de symboles, pour les nombres notamment. Dès lors, qu’est-ce qui fait la singularité de notre espèce ?
Stanislas Dehaene De nombreuses expériences ont effectivement montré que l’on pouvait enseigner les chiffres arabes à des macaques. Il est, en fait, assez facile d’entraîner des animaux à associer la forme d’un chiffre avec la quantité correspondante. En revanche, ils ne possèdent pas de système qui permette de combiner ces chiffres. Ou, si c’est le cas, cette compétence est très rudimentaire. En ce qui concerne le langage, l’apprentissage du vocabulaire ne pose guère de difficultés. Ainsi, certains chiens connaissent plusieurs centaines de mots. Cependant, contrairement à nous, les animaux ne possèdent pas de capacités combinatoires. Lorsqu’on apprend à des chimpanzés à utiliser des lexigrammes (soit des formes qui représentent des mots, soit des mots en langue des signes), ils s’en servent dans un ordre
Notre objectif est de décrypter le code neural du langage”
Le neuroscientifique Stanislas Dehaene donne des cours de psychologie cognitive expérimentale au Collège de France.
très peu contraint, avec des répétitions du genre « banane, donner, donner, banane, donner ». On n’observe pas de structures syntaxiques organisées, qui semblent caractéristiques de l’espèce humaine.
En quoi consistent ces structures du langage ?
En permanence, nous manipulons ce que l’on appelle des syntagmes. Il s’agit de groupes de mots, enchâssés les uns dans les autres, qui forment des unités syntaxiques détachables au sein de la phrase. Les linguistes les comparent aux branches d’un arbre qui représente la phrase tout entière. Derrière cette idée, il y a une notion théorique : les phrases ne sont pas seulement des séquences linéaires où chaque mot suit l’autre ; elles ont plutôt une structure arborescente, comme un arbre doté de multiples branches ramifiées. C’est aussi le cas en mathématiques. En algèbre, les syntagmes sont souvent visibles, car ils peuvent être entourés de parenthèses. Ainsi, 3x2 + 1 est l’un des syntagmes de l’expression (3x2 +1)( x - 1). En revanche, l’élément x2 + 1 n’est pas un syntagme de cette même expression. De la même manière, dans la phrase « le camion qui double la voiture est rouge », les objets « le camion est rouge » et « qui double la voiture » sont des syntagmes, en l’occurrence une proposition principale et une proposition relative. En revanche, « la voiture est rouge » n’est pas un syntagme, même si tous ces mots se suivent dans la phrase de départ. Certains mots isolés peuvent également former de petits arbres. Un mot comme « rediscutera » combine le préfixe « re- », qui possède une valeur sémantique (la répétition), une racine « discuter » et une terminaison grammaticale « -era » qui indique le futur. Notre espèce semble être la seule à combiner ainsi des objets en les enchâssant pour former de nouveaux arbres. En linguistique, cette vision combinatoire de la syntaxe a été théorisée dans les années 1950 par le linguiste américain Noam Chomsky.
Les neurosciences cognitives peuvent-elles mettre à l’épreuve cette théorie syntaxique ?
C’est leur défi. Si les linguistes sont dans le vrai, il doit exister un code neural de ces arbres syntaxiques, certainement unique à l’espèce humaine. La seule manière de le vérifier, c’est de mener des études chez l’homme. Mais les moyens d’investigation sont limités. Nous avons à notre disposition l’imagerie cérébrale ou, dans de très rares cas, l’électrophysiologie intracrânienne (*), chez des patients épileptiques qui, pour des raisons thérapeutiques, ont des électrodes implantées dans le cerveau. Dans mon cours l’an dernier au Collège de France, j’avais présenté les remarquables travaux du neurochirurgien américain Edward Chang sur le code phonologique : avec ce genre d’électrodes, on parvient à trouver des
microrégions du cortex sensibles uniquement à certaines catégories de phonèmes (*). Leur organisation est donc en accord avec la théorie dite des traits phonologiques, développée par les linguistes tout au long du XXe siècle. Nous avons là un bon exemple du fait que la linguistique, la psychologie et les sciences du comportement peuvent être en avance sur les neurosciences. C’est souvent le cas : on développe une théorie abstraite sans se préoccuper de son implémentation neurophysiologique mais, lorsque la théorie est juste, alors les objets théoriques que l’on a postulés se retrouvent au niveau cérébral. Nous espérons tous que ce soit le cas pour la syntaxe, car la théorie actuelle repose sur soixante ans d’analyses linguistiques extrêmement sophistiquées, menées dans des langues très diverses, et apporte des arguments très forts en faveur de l’existence d’une combinatoire récursive, qui forme les syntagmes en les enchâssant les uns dans les autres.
Dispose-t-on de résultats récents sur la façon dont le cerveau traite la syntaxe ?
Les recherches commencent à converger. Plusieurs dizaines d’expériences d’imagerie par résonance magnétique (IRM) ont identifié un réseau d’aires corticales qui sont systématiquement activées lorsque nous traitons la syntaxe. Ce réseau comprend la région frontale inférieure gauche, dite « aire de Broca », dans sa partie triangulaire, et également la partie postérieure du sillon temporal supérieur gauche. Ces régions s’activent même lorsque les phrases n’ont aucun sens (1), simplement parce que leur syntaxe est juste, ainsi que l’illustre la célèbre phrase de Chomsky, « les idées vertes incolores dorment furieusement ». Dans une expérience réalisée à NeuroSpin, au CEA de Paris-Saclay, nous l’avons montré en utilisant des stimuli inspirés du poème Jabberwocky, de Lewis Carroll. Il s’agit de phrases dans lesquelles on conserve une structure syntaxique cohérente, mais où l’on remplace les mots par des pseudo-mots, comme « la stamouche du gli a rapodé les prasins ». En analysant par IRM les activations cérébrales de volontaires en train de les lire, on trouve que les régions cérébrales dont je viens de parler continuent de faire leur travail même lorsque le sens est absent.
Précisément, comment ces régions dédiées au traitement syntaxique travaillent-elles ?
Nous venons de faire une avancée assez importante sur cette question (2). Comme ce qui avait été fait dans le domaine de la phonologie, nous avons utilisé des enregistrements intracrâniens pour suivre l’évolution de l’activité neuronale d’une personne pendant qu’elle lit une phrase. On présente les mots un par un, avec un rythme régulier, afin de maîtriser l’information reçue à chaque instant. Nous avons ainsi montré que l’activité cérébrale croît mot après mot, mais qu’elle chute soudainement lorsqu’on arrive à la frontière d’un syntagme (Fig. 1). Si vous lisez « la jolie infirmière », l’activité neuronale chute. Puis, lorsque de nouveaux mots apparaissent, par exemple « de » et « la », l’activité croît à nouveau, avant de chuter après l’apparition du mot « pharmacie », indiquant la frontière du nouveau syntagme « la jolie infirmière de la pharmacie ». On a l’impression que le cerveau maintient brièvement les mots en mémoire et, dès qu’il est possible de les regrouper pour former un syntagme, qu’il les comprime en une représentation plus compacte et moins coûteuse en énergie. Ainsi, une phrase peut contenir douze mots, mais sa structure interne peut être bien plus compacte, ce qui nous permet de mieux la retenir qu’une liste aléatoire de douze mots. C’est l’une des premières traces, au niveau de la dynamique du cerveau, de la matérialité neurophysiologique des syntagmes.
Peut-on imaginer avoir accès au code neural de la syntaxe ?
Le microcode neural lui-même nous échappe pour l’instant. On ne sait pas comment l’information syntaxique est codée à l’intérieur de ces régions cérébrales. Il faut bien comprendre que les enregistrements intracrâniens actuels reflètent la valeur moyenne du potentiel de champ local, qui correspond à l’activité électrique de quelques milliers de neurones. Nous n’avons donc pas accès au code neural détaillé, au niveau de chaque bit
d’information apporté par chaque neurone. Mais c’est le but des recherches que nous menons actuellement. Il existe certains centres dans le monde où des équipes parviennent à descendre au niveau du neurone unique. On ne peut faire cela chez l’homme que dans des circonstances très rares, avec des micro-électrodes d’un type spécial. Nous commençons tout juste à conduire ce genre d’expériences en collaboration avec le professeur Itzhak Fried, de l’université de Californie à Los Angeles. Mais nous n’avons pas de résultat pour l’instant.
Y a-t-il une différence dans le traitement du langage chez les personnes qui savent lire et les personnes analphabètes ?
C’est une très bonne question, dont on ne connaît pas toutes les réponses! Le réseau du langage parlé se met en place dans les premières années de vie, dans l’hémisphère gauche, bien avant que l’enfant n’apprenne à lire. Il est donc, dans une grande mesure, indépendant de la lecture. L’équipe de mon épouse, Ghislaine Dehaene-Lambertz, à NeuroSpin également, a été la première à montrer que, même chez les bébés de quelques mois, les aires du langage s’activent déjà lorsqu’ils écoutent des phrases dans leur langue maternelle (3). D’un point de vue linguistique, les enfants entre deux et trois ans disposent déjà de connaissances extraordinairement abstraites de leur langue. Maintenant, est-ce que la lecture change ce système ? Au niveau syntaxique, on ne le sait pas. En revanche, nous avons conduit de nombreuses expériences sur l’impact de la lecture sur le système visuel et auditif, en comparant par exemple des enfants de six ans environ sachant lire avec d’autres qui ne l’ont pas encore appris, ou encore des adultes qui sont allés à l’école avec d’autres qui n’y sont pas allés. Nous avons ainsi observé des différences importantes dans les aires visuelles, qui reflètent l’expertise pour la reconnaissance de lettres. Plus étonnant, nous avons aussi identifié des différences dans les aires du langage parlé. En particulier, lorsqu’une personne apprend à lire, une région cérébrale impliquée dans le codage phonologique double pratiquement son activité.
Que cela signifie-t-il ?
Cela veut dire que l’apprentissage de la lecture change probablement le code neural pour les sons du langage. Nos données d’imagerie vont dans le sens d’autres données psychologiques qui suggèrent que l’apprentissage de l’alphabet permet de coder les phonèmes de façon explicite. Ainsi, une personne lettrée qui entend le mot « Paris » identifie quatre sons distincts, les phonèmes « peu », « a », « re », « i », alors qu’une personne illettrée ne distingue que deux sons, les syllabes « pa » et « ri », mais ne parvient pas à entendre les phonèmes individuels. L’apprentissage de la lecture semble conduire à un raffinement du code phonologique. Dans le cas de la syntaxe, on ignore encore si de tels changements ont lieu dans les réseaux cérébraux. C’est probable car, dès lors qu’on est alphabétisé, les phrases produites ont tendance à être plus longues, de même que la mémoire de travail dédiée au langage est plus importante.
Dans votre cours, vous mettez le mot « langage » au pluriel. Selon vous, il en existe dans des domaines aussi variés que la musique et les mathématiques. Qu’ont-ils en commun ?
Les mathématiques et la musique sont également organisées sous forme d’arbres et de syntagmes enchâssés les uns dans les autres. Le langage mathématique fait appel à des parenthèses et des règles de priorité : 3x + 1, ce n’est pas la même chose que 3 ( x+ 1). C’est un peu moins évident dans le cas de la musique, mais des analyses cognitives montrent qu’il faut supposer l’existence de phrases musicales, formées elles-mêmes de sous-phrases, etc., jusqu’au niveau de la note élémentaire. La musique met probablement en jeu deux structures minimales : une structure rythmique et une structure harmonique. Il existe donc au moins deux formes d’arbres enchâssés. Au niveau linguistique, langage, musique et
mathématiques partagent donc des structures analogues. Et pourtant, au niveau cérébral, les aires sont parfois très différentes. Le traitement musical fait beaucoup plus appel à l’hémisphère droit que ne le fait le langage parlé qui, chez la plupart des gens, est très latéralisé à gauche. À une exception près : la prosodie (*) du langage – la mélodie de la langue – fait appel à des représentations dans l’hémisphère droit assez similaires à celles qui sont utilisées en musique. Des expériences ont d’ailleurs montré que la prosodie du langage du compositeur semble influencer sa musique. La rythmique et les pauses qui y sont faites semblent coïncider avec les structures linguistiques du langage du compositeur (4 ) . Par ailleurs, nous avons publié récemment des données d’imagerie qui indiquent que le réseau cérébral des mathématiques est complètement distinct de celui du langage (5). On retrouve cette distinction en neuropsychologie : des lésions cérébrales peuvent affecter les compétences mathématiques sans altérer le langage ; à l’inverse, on peut être aphasique tout en restant capable de traiter les expressions algébriques.
Au cours de l’évolution, qu’est-ce qui a changé dans le cerveau au point de permettre l’acquisition du langage ?
La conclusion de mon cours, c’est que, dans l’espèce humaine, un changement fondamental a dû affecter simultanément plusieurs régions du cerveau. Peutêtre est-ce un changement de code neural qui a permis à l’espèce humaine de se représenter des objets mentaux de façon récursive, c’est-à-dire d’enchâsser les objets les uns dans les autres. Par-delà la musique ou les mathématiques, l’espèce humaine est en effet la seule à construire des outils complexes, composés. Contrairement aux animaux, les hommes conservent leurs outils, et les utilisent pour en façonner de nouveaux ou pour les associer. Par exemple, un manche et une hache vont permettre de construire une hache emmanchée. On retrouve là encore une notion de combinatoire qui semble propre à l’espèce humaine.
Cette capacité recouvrerait donc plusieurs compétences : le langage, la construction d’outils, le raisonnement mathématique…
Et peut-être d’autres domaines, comme la théorie de l’esprit. En effet, nous sommes la seule espèce à nous représenter les pensées d’autrui de façon
Il y a 1,6 million d’années, les outils des hommes révélaient déjà une pensée mathématique ”
récursive : « je crois que tu ignores que Jean pense que je l’ai vu »… Les humains peuvent, là encore, enchâsser des représentations abstraites de façon extrêmement profonde. Il semble bien que les autres espèces animales, même si elles disposent d’un rudiment de théorie de l’esprit, n’en soient pas capables.
A-t-on une idée de la date d’apparition de cette capacité ?
La pensée géométrique est assez ancienne. Il est très intrigant de voir que, il y a 1,6 à 1,8 million d’années, les hommes façonnaient déjà des objets aux propriétés mathématiques élaborées, notamment des pierres en forme de sphère, comme s’ils possédaient la notion d’équidistance à un point. On connaît également des dizaines de milliers de bifaces, ces outils pourvus de deux plans de symétrie orthogonaux : ils ont le même degré d’ancienneté, et leur perfection géométrique démontre une recherche délibérée de la symétrie, au-delà de la simple utilité fonctionnelle. Dès lors, je me demande si la capacité de représentation symbolique et récursive n’est pas apparue, dans un premier temps, indépendamment du langage, avant tout comme un système de représentation rationnelle du monde. Le cerveau d’Homo erectus avait peut-être déjà atteint la compétence d’une machine de Turing universelle, capable de représenter toutes les structures logiques ou mathématiques possibles. Peut-être est-ce une illusion, mais pour l’instant, notre espèce a réussi à comprendre l’organisation des structures du monde à toutes les échelles de l’Univers. Dans un deuxième temps, il y a environ 100 000 ans, on observe une explosion culturelle qui suggère un langage, une communication… On peut donc se demander s’il n’y a pas d’abord la mise en place d’un système de représentations mentales enchâssées, puis l’apparition d’une capacité à communiquer ces représentations.
C’est difficile à trancher sur le plan historique ?
Absolument, ni les langues, ni la musique, ni les mathématiques ne se fossilisent ! Cependant, notre génome et notre cerveau portent les traces de notre évolution. Je suis persuadé que, dans la prochaine décennie, les neurosciences combinées à une approche génétique apporteront des réponses solides à la question de l’origine des langages du cerveau.