Serge Tisseron ( psychiatre, docteur en psychologie) : « Je plaide pour que soit reconnu le droit des humains de savoir à tout moment s’ils interagissent avec un humain ou une machine »
Psychiatre, docteur en psychologie, Serge Tisseron, membre de l’Académie des Technologies depuis 2015, est très investi dans la réflexion que l’Être humain entretient avec les technologies. Auteur de nombreux ouvrages, il est le pionnier d’une réflexion sentinelle sur les possibles dérives d’une Société confrontée, depuis la numérisation galopante de notre quotidien, à une déshumanisation excessive.
VOTRE ESSAI TRANCHE AVEC LE MYTHE DE L’HOMME ANÉANTI PAR LES ROBOTS ET L’IDÉE D’UNE INTELLIGENCE ARTIFICIELLE SUPÉRIEURE À L’INTELLIGENCE HUMAINE. EN SOI, C’EST PLUTÔT RASSURANT. QU’EST- CE QUI A GUIDÉ VOTRE RÉFLEXION QUI TEMPÈRE DES CRAINTES SÉCULAIRES DONT LA SCIENCEFICTION S’EST ABONDAMMENT FAIT L’ÉCHO DEPUIS DES DÉCENNIES ? ❚ Serge Tisseron : De Mary Shelley – Frankenstein – aux films récents, comme Her, de Spike Jonze, avec Joachin Pheonix et Scarlett Johansson, en passant par les auteurs de science- fiction, on a souvent mis en scène les rapports troubles entre l’homme et la machine. Les robots et les développements de l’IA nourrissent, aujourd’hui plus que jamais, la crainte ancestrale de l’Occident qu’un « double » puisse un jour dépasser son créateur, prendre conscience de sa supériorité et l’anéantir. Ces craintes doivent être prises au sérieux pour ce qu’elles nous disent de nos inquiétudes, même si elles ne sont pas scientifiquement fondées compte tenu de l’état de la technologie. Il existe d’ores et déjà des IA plus performantes que l’homme dans des domaines précis, mais aucune n’est polyvalente, c’est- à- dire capable de s’adapter à toutes les situations comme un Être humain le fait. Il faudra encore beaucoup d’années avant que l’IA n’intègre le niveau d’adaptation et d’autonomie que permet une intelligence « vivante » . D’autant plus que beaucoup de chercheurs sont hésitants quant à l’opportunité de donner à une IA de telles compétences. Pourquoi créer à l’homme
un concurrent dangereux ? Mais ces problèmes, qui seront certainement essentiels demain, ne doivent pas servir de rideau de fumée pour nous cacher ceux qui se posent aujourd’hui. VOUS SOULIGNEZ DE RÉELS DANGERS PSYCHIQUES POUR L’ÊTRE HUMAIN SUR LES ÉVOLUTIONS RÉCENTES DE LA ROBOTISATION ET DES DÉVELOPPEMENTS DE L’IA. POUVEZ- VOUS NOUS EN PARLER ? ❚ Le principal dont je parle dans cet essai est la « dissonance cognitive » . Elle consiste à savoir par exemple qu’une plante, ou une machine n’a pas d’émotions semblables à celles des humains, mais à ne pas pouvoir s’empêcher de se comporter comme si elle en avait. La dissonance cognitive est en lien avec la tendance qu’a l’humain de projeter ses émotions, ses sentiments et même parfois ses pensées sur son environnement. Et cela ne date pas de l’informatique ! L’Être humain a toujours eu cette relation anthropomorphe avec son environnement. Cela a permis à l’espèce humaine de s’adapter à son environnement. Imaginer que chaque nouvel objet ou créature que les hommes rencontraient puisse réagir comme eux aux mêmes situations était le seul et unique moyen dont ils disposaient pour tenter d’anticiper leurs réactions, et donc s’y préparer le mieux possible. Jusque dans les années soixante, on pensait que cette tendance était celle des « peuples primitifs » et des enfants. On pensait qu’en grandissant, l’homme accédait à une pensée « rationnelle » . En réalité, l’humain est toujours partagé entre la pensée anthropomorphe, qui est fondée sur l’intuition, et la pensée rationnelle, qui est fondée sur le sens critique. Cette tendance à projeter ses émotions et ses pensées sur les objets dotés de mouvements est parfaitement illustrée par l’importance de nos projections sur les automates. Mais il ne faut pas confondre anthropomorphisme et animisme. L’animisme est une attitude d’esprit dans laquelle une personne ne se contente pas de projections anthropomorphes, mais où elle croit à la réalité de ses projections. Avec les robots, le risque d’animisme sera considérablement augmenté. En effet, ces machines seront les premières à créer deux illusions complémentaires : avoir besoin de nous pour évoluer, et se soucier de nos besoins et de nos désirs. Ces deux caractéristiques créeront l’illusion d’une réciprocité complète, autrement dit d’une relation totalement humaine. Et les deux lettres « IA » , pour Intelligence artificielle, pourraient bien désigner bientôt « Informatique animiste » ! CERTAINS ROBOTS ONT DES RÉACTIONS QUASI- HUMAINES… ❚ C’est ici que nous parlons de « dissonance cognitive » . Il s’agit de croire que la machine aurait « en réalité » les compétences émotionnelles et empathiques qu’il nous plaît de lui prêter.
VERS UN « DROIT » ET UNE « IDENTITÉ » SOCIALE DES ROBOTS ?
Certains informaticiens vont hélas dans ce sens, comme avec le robot Sophia, dont des vidéos tentent de nous faire croire qu’il aurait une pensée propre !
EN QUOI CETTE DÉRIVE EST- ELLE UN DANGER ? ❚ Pour plusieurs raisons. La première est le risque d’oublier qu’il y a un programmeur derrière chaque robot. Le risque est d’autant plus grand que tous les films de science- fiction tendent à nous présenter des « robots autonomes » , à commencer par ceux de la saga Star Wars, R2D2 et C- 3PO. Tous les deux suscitent une réaction immédiate d’empathie. Cette empathie est la première marche qui mène à la dissonance cognitive, c’est- à- dire vers le fait de savoir que le robot n’est pas capable en réalité de cette autonomie, mais être tenté de le croire malgré tout parce que cela nous permet d’oublier le programmeur qui se cache derrière, et de céder au plaisir de croire à la magie. Un second risque de la dissonance cognitive est de croire qu’un robot pourrait vraiment avoir des émotions, et donc souffrir. Cela pourrait amener son utilisateur à risquer sa propre vie pour lui éviter des dommages, alors qu’une pièce de robot peut facilement être changée. C’est ce qui est arrivé à certains soldats utilisant des robots démineurs. Ils développent avec leur machine une relation d’empathie telle, que lorsqu’elle est endommagée en opération, ils peuvent se déprimer, développer des douleurs somatiques aux endroits où le robot a été endommagé, ou demander que « leur » robot, s’il a été détruit, bénéficie d’une cérémonie semblable à celle qui accompagne la mort d’un soldat en mission. Exactement comme s’ils avaient perdu un « frère d’armes » au combat. Hélas, au lieu de faire tout pour s’opposer à cette tendance anthropomorphe, certains fabricants de robots et d’IA ont tendance à « humaniser » leurs créations, de façon à encourager l’attachement des usagers. D’autant plus que le langage employé pour parler des robots et de l’IA fait écran à la réalité et porte sans cesse la confusion. On parle d’Intelligence artificielle, de réseaux de neurones, d’empathie artificielle, d’apprentissage machine et d’autonomie alors que ces expressions ne désignent rien de comparable à ce qu’elles signifient chez l’homme. Ce ne sont que des métaphores. Le problème est qu’ils risquent de nous cacher que ces machines sont programmées par des humains pour nous séduire et nous influencer. Par exemple, derrière l’expression « d’humour machine » se cachent des centaines d’ingénieurs, d’écrivains, d’humoristes, payés pour créer des dizaines de milliers d’histoires drôles dans lesquelles l’IA n’aura qu’à piocher pour créer l’illusion, chez son utilisateur, que la machine que nous avons achetée est en parfaite connivence avec nous. Le troisième risque est de préférer des robots prévisibles à des humains imprévisibles. Autrement dit, nous rendre moins tolérants au caractère imprévisible de l’humain, voire créer des formes de « robot dépendance » . Et à un degré de plus, ce serait le risque de considérer que les qualités des robots devraient devenir celles de l’humain. L’homme serait invité à se « robotiser » !
EN SOMME, NOUS, HUMAINS, POURRIONS ÊTRE SENSIBLES À LA CONDITION DE NOS ROBOTS ? ❚ C’est très bien illustré dans le film 2001, l’Odyssée de l’Espace, réalisé en 1968 par Stanley Kubrick. Le robot est une machine. La preuve : pour la rendre inerte, il suffit de la débrancher. La machine reprend son statut d’objet inanimé… et inoffensif. Dans 2001, « HAL » est un robot ultra perfectionné qui est capable d’émotions. Il a commis une erreur et craint d’être débranché. Il répète : « J’ai peur » . Et il décide de devenir totalement autonome en tuant les astronautes. Mais l’un d’entre eux en réchappe et « déconnecte » petit à petit HAL en ne lui laissant que les circuits indispensables à sa mission. La « conscience » de HAL retourne aux premiers âges de l’enfance – il se met à fredonner des comptines – pendant que le son de sa voie artificielle, au début très humaine et désolée, se désincarne peu à peu avant de se taire. Pouvoir débrancher son robot est un droit qui doit être reconnu et facilité. Mais quand on débranche Pepper, le robot humanoïde fabriqué par l’entreprise japonaise Softbank, sa tête tombe et pend lamentablement sur son torse comme s’il mourait subitement. Du coup, on éprouve un choc émotionnel intense. La tentation est alors de le laisser branché en permanence pour éviter de le voir « mourir » . Cela présente des risques.
QUELS TYPES DE RISQUES ? ❚ On en revient aux dangers de la « dissonance cognitive » qui fait qu’un Être humain prête à une machine une conscience « autonome » qui n’existe pas. Cette tendance naturelle à l’homme est plus ou moins importante chez chacun. Mais elle est aussi sous la dépendance de ce qui nous est dit et montré des robots. Dans le cas de Pepper, il y a cette mise en scène de la mort subite quand on le débranche, mais il y a aussi les campagnes de publicités qui visent à nous faire croire qu’il aurait des émotions véritables. Le but est que la confiance que nous aurons en ces machines nous amène non seulement à les laisser branchées en permanence, mais aussi à les prendre comme témoins de nos confidences. En effet, les coûts de Recherche et Développement sont tels sur ces machines, qu’ils ne peuvent être amortis que par l’exploitation des informations des utilisateurs qu’elles stockent et revendent à des annonceurs et à des entreprises. Les données sont hébergées sur des serveurs centraux auxquels personnes n’a accès, et qui sont gérés par des entreprises dont le but n’est pas le bienfait de l’humanité, mais le profit des actionnaires. On en revient au débat sur les données personnelles que le scandale Cambridge Analytica et le Règlement général de protection des données ( RGPD) adopté par l’Europe
UN ROBOT RESTE UNE MACHINE QU’ON DOIT POUVOIR ÉTEINDRE ET DÉBRANCHER
ont mis en lumière ces derniers mois. Cette prise de conscience brutale, que les Européens défendent depuis des années, est indispensable. Que se passerait- il si les programmes étaient conçus par des individus malveillants au service de puissances totalitaires ou terroristes ?
L’UTILISATION DES ROBOTS POSENT DES QUESTIONS D’ÉTHIQUE : COMME CES ROBOTSSOLDATS DOTÉS D’IA, ET DONT LA RUSSIE ET AUSSI LES ETATS UNIS DÉFENDENT SANS TROP LE DIRE LE DÉVELOPPEMENT, SOUS COUVERT DE VOULOIR RÉDUIRE LES DÉPENSES MILITAIRES ET D’ÉPARGNER DES VIES HUMAINES. CELA VOUS INSPIRE QUOI ? ❚ Beaucoup de crainte. Pour les partisans des robots tueurs, il y a deux avantages. Le premier est que les robots n’ont pas d’emballement émotionnel, et qu’ils ne commettront donc pas de « bavure » comme les soldats qui tuent des civils sous l’effet de la douleur et de la colère après la mort de l’un de leurs camarades. Le second avantage est que ces machines ne feront finalement qu’appliquer le programme que des humains y auront rentré, mais plus rapidement que ne peut le faire un humain. Les robots tueurs ne sont en effet que des automates programmés pour prendre exactement les décisions qu’un homme prendrait à leur place. Un robot muni d’armes létales peut ainsi être programmé pour tirer sur tout ce qu’il voit bouger, ou bien uniquement sur les cibles émettant un spectre thermique identique à celui d’un être humain, etc. Mais ces deux arguments sont fallacieux. Tout d’abord, la capacité des robots à prendre la bonne décision est, en l’état actuel de l’IA, très mince. Un robot n’a pas à l’heure actuelle la capacité de distinguer véritablement un soldat d’un civil, surtout si le soldat se déguise en civil. Il ne suffit pas qu’un robot n’ait pas d’émotions pour que ses choix soient toujours bons ! Quant au second argument, il est plus pernicieux encore. Le problème est qu’à partir du moment où l’homme sort de la boucle des décisions, il peut être tenté de programmer ces machines tueuses en acceptant des « dommages collatéraux » plus importants, autrement dit un plus grand nombre de morts civils, dans le but de mieux protéger ses intérêts. Il n’a fait que régler un algorithme. C’est la machine qui est responsable de tout le reste.
POURTANT, ON SOULIGNE BEAUCOUP D’UTILISATIONS TRÈS BÉNÉFIQUES À L’IA ET À LA ROBOTIQUE, NOTAMMENT DANS LE DOMAINE DE LA MÉDECINE… ❚ Bien sûr. Si ces technologies peuvent permettre à des médecins de poser un diagnostic plus précis, d’opérer mieux et de pallier le désert médical de certaines zones rurales, difficiles d’accès, c’est une bonne chose. L’Institut pour l’étude des relations homme robots ( IERHR), que j’ai fondé, a d’ailleurs tenu son premier colloque en octobre 2017 sur le thème « Robotique et santé mentale » , et il y a été beaucoup question de l’utilisation des robots avec les enfants souffrant de troubles envahissants du développement et par les personnes âgées. Mais comme dans toutes les évolutions extrêmement rapides – celle- ci l’est –, il faut vite installer des gardefous et des limites. VOUS ALERTEZ EN PRÔNANT L’INSTAURATION DE GARDE- FOUS ET DE LIMITES, POUR DONNER DES REPÈRES DANS LA FAMILLE ET LA SOCIÉTÉ. LESQUELS ? ❚ La première règle est de poser comme principe que les robots ne remplacent les humains que pour des tâches dans lesquelles il n’y a pas d’intervention auprès d’humains. Des tâches dangereuses, sales, répétitives… Mais dès qu’il y a une relation, les robots doivent être des outils comme les autres : ils doivent accompagner et aider le professionnel, pour lui permettre de faire mieux avec eux ce qu’il faisait auparavant sans eux. C’est notamment le cas dans les domaines médical et scolaire. Les mesures nécessaires concernent trois domaines : législatif, technologique et éducatif. Les mesures législatives portent sur les emplois – formation et reconversion professionnelle –, sur la vie privée – connaissance par l’utilisateur de ses données prélevées et de leur utilisation –, sur l’économie – condamnation de l’obsolescence programmée et récupération / reconversion des objets techniques vieillis et abandonnés – et sur le respect du libre choix ; par exemple, demander l’autorisation des patients dans le cas d’utilisation thérapeutique. Il faut aussi interdire les publicités mensongères qui prétendent vendre des « émo robots » , autrement dit des robots qui seraient capables d’émotions. Et même peut- être indiquer sur les publicités, que nous allons bientôt voir, que les robots sont des machines à simuler, un peu comme il est rappelé sur les publicités pour les produits alimentaires qu’il faut bouger… Les mesures technologiques doivent éviter les risques psychiques de dissonance cognitive. Pour cela, il serait utile qu’une partie des protections des robots soit transparente afin de rendre visibles les circuits électroniques et les câbles, ce qui leur donne le statut de machine. Et, bien entendu, favoriser la possibilité de l’éteindre. Enfin, il faut bien évidemment éduquer, dès le plus jeune âge, et sensibiliser. Introduire des cours de programmation et de montage et démontage de robots dans les écoles, dès le primaire. Et, comme partout, c’est d’abord la cellule familiale, cellule de base d’organisation de la Société, qui doit donner les premiers repères intangibles. Je plaide pour que soit reconnu le droit des humains de savoir à tout moment s’ils interagissent avec un humain ou une machine. ❍
IL FAUT INTERDIRE LES PUBLICITÉS MENSONGÈRES QUI PRÉTENDENT VENDRE DES « ÉMO ROBOTS » , SOIT DISANT CAPABLES D’ÉMOTION