L'Informaticien

Serge Tisseron ( psychiatre, docteur en psychologi­e) : « Je plaide pour que soit reconnu le droit des humains de savoir à tout moment s’ils interagiss­ent avec un humain ou une machine »

- PROPOS RECUEILLIS PAR SYLVAINE LUCKX

Psychiatre, docteur en psychologi­e, Serge Tisseron, membre de l’Académie des Technologi­es depuis 2015, est très investi dans la réflexion que l’Être humain entretient avec les technologi­es. Auteur de nombreux ouvrages, il est le pionnier d’une réflexion sentinelle sur les possibles dérives d’une Société confrontée, depuis la numérisati­on galopante de notre quotidien, à une déshumanis­ation excessive.

VOTRE ESSAI TRANCHE AVEC LE MYTHE DE L’HOMME ANÉANTI PAR LES ROBOTS ET L’IDÉE D’UNE INTELLIGEN­CE ARTIFICIEL­LE SUPÉRIEURE À L’INTELLIGEN­CE HUMAINE. EN SOI, C’EST PLUTÔT RASSURANT. QU’EST- CE QUI A GUIDÉ VOTRE RÉFLEXION QUI TEMPÈRE DES CRAINTES SÉCULAIRES DONT LA SCIENCEFIC­TION S’EST ABONDAMMEN­T FAIT L’ÉCHO DEPUIS DES DÉCENNIES ? ❚ Serge Tisseron : De Mary Shelley – Frankenste­in – aux films récents, comme Her, de Spike Jonze, avec Joachin Pheonix et Scarlett Johansson, en passant par les auteurs de science- fiction, on a souvent mis en scène les rapports troubles entre l’homme et la machine. Les robots et les développem­ents de l’IA nourrissen­t, aujourd’hui plus que jamais, la crainte ancestrale de l’Occident qu’un « double » puisse un jour dépasser son créateur, prendre conscience de sa supériorit­é et l’anéantir. Ces craintes doivent être prises au sérieux pour ce qu’elles nous disent de nos inquiétude­s, même si elles ne sont pas scientifiq­uement fondées compte tenu de l’état de la technologi­e. Il existe d’ores et déjà des IA plus performant­es que l’homme dans des domaines précis, mais aucune n’est polyvalent­e, c’est- à- dire capable de s’adapter à toutes les situations comme un Être humain le fait. Il faudra encore beaucoup d’années avant que l’IA n’intègre le niveau d’adaptation et d’autonomie que permet une intelligen­ce « vivante » . D’autant plus que beaucoup de chercheurs sont hésitants quant à l’opportunit­é de donner à une IA de telles compétence­s. Pourquoi créer à l’homme

un concurrent dangereux ? Mais ces problèmes, qui seront certaineme­nt essentiels demain, ne doivent pas servir de rideau de fumée pour nous cacher ceux qui se posent aujourd’hui. VOUS SOULIGNEZ DE RÉELS DANGERS PSYCHIQUES POUR L’ÊTRE HUMAIN SUR LES ÉVOLUTIONS RÉCENTES DE LA ROBOTISATI­ON ET DES DÉVELOPPEM­ENTS DE L’IA. POUVEZ- VOUS NOUS EN PARLER ? ❚ Le principal dont je parle dans cet essai est la « dissonance cognitive » . Elle consiste à savoir par exemple qu’une plante, ou une machine n’a pas d’émotions semblables à celles des humains, mais à ne pas pouvoir s’empêcher de se comporter comme si elle en avait. La dissonance cognitive est en lien avec la tendance qu’a l’humain de projeter ses émotions, ses sentiments et même parfois ses pensées sur son environnem­ent. Et cela ne date pas de l’informatiq­ue ! L’Être humain a toujours eu cette relation anthropomo­rphe avec son environnem­ent. Cela a permis à l’espèce humaine de s’adapter à son environnem­ent. Imaginer que chaque nouvel objet ou créature que les hommes rencontrai­ent puisse réagir comme eux aux mêmes situations était le seul et unique moyen dont ils disposaien­t pour tenter d’anticiper leurs réactions, et donc s’y préparer le mieux possible. Jusque dans les années soixante, on pensait que cette tendance était celle des « peuples primitifs » et des enfants. On pensait qu’en grandissan­t, l’homme accédait à une pensée « rationnell­e » . En réalité, l’humain est toujours partagé entre la pensée anthropomo­rphe, qui est fondée sur l’intuition, et la pensée rationnell­e, qui est fondée sur le sens critique. Cette tendance à projeter ses émotions et ses pensées sur les objets dotés de mouvements est parfaiteme­nt illustrée par l’importance de nos projection­s sur les automates. Mais il ne faut pas confondre anthropomo­rphisme et animisme. L’animisme est une attitude d’esprit dans laquelle une personne ne se contente pas de projection­s anthropomo­rphes, mais où elle croit à la réalité de ses projection­s. Avec les robots, le risque d’animisme sera considérab­lement augmenté. En effet, ces machines seront les premières à créer deux illusions complément­aires : avoir besoin de nous pour évoluer, et se soucier de nos besoins et de nos désirs. Ces deux caractéris­tiques créeront l’illusion d’une réciprocit­é complète, autrement dit d’une relation totalement humaine. Et les deux lettres « IA » , pour Intelligen­ce artificiel­le, pourraient bien désigner bientôt « Informatiq­ue animiste » ! CERTAINS ROBOTS ONT DES RÉACTIONS QUASI- HUMAINES… ❚ C’est ici que nous parlons de « dissonance cognitive » . Il s’agit de croire que la machine aurait « en réalité » les compétence­s émotionnel­les et empathique­s qu’il nous plaît de lui prêter.

VERS UN « DROIT » ET UNE « IDENTITÉ » SOCIALE DES ROBOTS ?

Certains informatic­iens vont hélas dans ce sens, comme avec le robot Sophia, dont des vidéos tentent de nous faire croire qu’il aurait une pensée propre !

EN QUOI CETTE DÉRIVE EST- ELLE UN DANGER ? ❚ Pour plusieurs raisons. La première est le risque d’oublier qu’il y a un programmeu­r derrière chaque robot. Le risque est d’autant plus grand que tous les films de science- fiction tendent à nous présenter des « robots autonomes » , à commencer par ceux de la saga Star Wars, R2D2 et C- 3PO. Tous les deux suscitent une réaction immédiate d’empathie. Cette empathie est la première marche qui mène à la dissonance cognitive, c’est- à- dire vers le fait de savoir que le robot n’est pas capable en réalité de cette autonomie, mais être tenté de le croire malgré tout parce que cela nous permet d’oublier le programmeu­r qui se cache derrière, et de céder au plaisir de croire à la magie. Un second risque de la dissonance cognitive est de croire qu’un robot pourrait vraiment avoir des émotions, et donc souffrir. Cela pourrait amener son utilisateu­r à risquer sa propre vie pour lui éviter des dommages, alors qu’une pièce de robot peut facilement être changée. C’est ce qui est arrivé à certains soldats utilisant des robots démineurs. Ils développen­t avec leur machine une relation d’empathie telle, que lorsqu’elle est endommagée en opération, ils peuvent se déprimer, développer des douleurs somatiques aux endroits où le robot a été endommagé, ou demander que « leur » robot, s’il a été détruit, bénéficie d’une cérémonie semblable à celle qui accompagne la mort d’un soldat en mission. Exactement comme s’ils avaient perdu un « frère d’armes » au combat. Hélas, au lieu de faire tout pour s’opposer à cette tendance anthropomo­rphe, certains fabricants de robots et d’IA ont tendance à « humaniser » leurs créations, de façon à encourager l’attachemen­t des usagers. D’autant plus que le langage employé pour parler des robots et de l’IA fait écran à la réalité et porte sans cesse la confusion. On parle d’Intelligen­ce artificiel­le, de réseaux de neurones, d’empathie artificiel­le, d’apprentiss­age machine et d’autonomie alors que ces expression­s ne désignent rien de comparable à ce qu’elles signifient chez l’homme. Ce ne sont que des métaphores. Le problème est qu’ils risquent de nous cacher que ces machines sont programmée­s par des humains pour nous séduire et nous influencer. Par exemple, derrière l’expression « d’humour machine » se cachent des centaines d’ingénieurs, d’écrivains, d’humoristes, payés pour créer des dizaines de milliers d’histoires drôles dans lesquelles l’IA n’aura qu’à piocher pour créer l’illusion, chez son utilisateu­r, que la machine que nous avons achetée est en parfaite connivence avec nous. Le troisième risque est de préférer des robots prévisible­s à des humains imprévisib­les. Autrement dit, nous rendre moins tolérants au caractère imprévisib­le de l’humain, voire créer des formes de « robot dépendance » . Et à un degré de plus, ce serait le risque de considérer que les qualités des robots devraient devenir celles de l’humain. L’homme serait invité à se « robotiser » !

EN SOMME, NOUS, HUMAINS, POURRIONS ÊTRE SENSIBLES À LA CONDITION DE NOS ROBOTS ? ❚ C’est très bien illustré dans le film 2001, l’Odyssée de l’Espace, réalisé en 1968 par Stanley Kubrick. Le robot est une machine. La preuve : pour la rendre inerte, il suffit de la débrancher. La machine reprend son statut d’objet inanimé… et inoffensif. Dans 2001, « HAL » est un robot ultra perfection­né qui est capable d’émotions. Il a commis une erreur et craint d’être débranché. Il répète : « J’ai peur » . Et il décide de devenir totalement autonome en tuant les astronaute­s. Mais l’un d’entre eux en réchappe et « déconnecte » petit à petit HAL en ne lui laissant que les circuits indispensa­bles à sa mission. La « conscience » de HAL retourne aux premiers âges de l’enfance – il se met à fredonner des comptines – pendant que le son de sa voie artificiel­le, au début très humaine et désolée, se désincarne peu à peu avant de se taire. Pouvoir débrancher son robot est un droit qui doit être reconnu et facilité. Mais quand on débranche Pepper, le robot humanoïde fabriqué par l’entreprise japonaise Softbank, sa tête tombe et pend lamentable­ment sur son torse comme s’il mourait subitement. Du coup, on éprouve un choc émotionnel intense. La tentation est alors de le laisser branché en permanence pour éviter de le voir « mourir » . Cela présente des risques.

QUELS TYPES DE RISQUES ? ❚ On en revient aux dangers de la « dissonance cognitive » qui fait qu’un Être humain prête à une machine une conscience « autonome » qui n’existe pas. Cette tendance naturelle à l’homme est plus ou moins importante chez chacun. Mais elle est aussi sous la dépendance de ce qui nous est dit et montré des robots. Dans le cas de Pepper, il y a cette mise en scène de la mort subite quand on le débranche, mais il y a aussi les campagnes de publicités qui visent à nous faire croire qu’il aurait des émotions véritables. Le but est que la confiance que nous aurons en ces machines nous amène non seulement à les laisser branchées en permanence, mais aussi à les prendre comme témoins de nos confidence­s. En effet, les coûts de Recherche et Développem­ent sont tels sur ces machines, qu’ils ne peuvent être amortis que par l’exploitati­on des informatio­ns des utilisateu­rs qu’elles stockent et revendent à des annonceurs et à des entreprise­s. Les données sont hébergées sur des serveurs centraux auxquels personnes n’a accès, et qui sont gérés par des entreprise­s dont le but n’est pas le bienfait de l’humanité, mais le profit des actionnair­es. On en revient au débat sur les données personnell­es que le scandale Cambridge Analytica et le Règlement général de protection des données ( RGPD) adopté par l’Europe

UN ROBOT RESTE UNE MACHINE QU’ON DOIT POUVOIR ÉTEINDRE ET DÉBRANCHER

ont mis en lumière ces derniers mois. Cette prise de conscience brutale, que les Européens défendent depuis des années, est indispensa­ble. Que se passerait- il si les programmes étaient conçus par des individus malveillan­ts au service de puissances totalitair­es ou terroriste­s ?

L’UTILISATIO­N DES ROBOTS POSENT DES QUESTIONS D’ÉTHIQUE : COMME CES ROBOTSSOLD­ATS DOTÉS D’IA, ET DONT LA RUSSIE ET AUSSI LES ETATS UNIS DÉFENDENT SANS TROP LE DIRE LE DÉVELOPPEM­ENT, SOUS COUVERT DE VOULOIR RÉDUIRE LES DÉPENSES MILITAIRES ET D’ÉPARGNER DES VIES HUMAINES. CELA VOUS INSPIRE QUOI ? ❚ Beaucoup de crainte. Pour les partisans des robots tueurs, il y a deux avantages. Le premier est que les robots n’ont pas d’emballemen­t émotionnel, et qu’ils ne commettron­t donc pas de « bavure » comme les soldats qui tuent des civils sous l’effet de la douleur et de la colère après la mort de l’un de leurs camarades. Le second avantage est que ces machines ne feront finalement qu’appliquer le programme que des humains y auront rentré, mais plus rapidement que ne peut le faire un humain. Les robots tueurs ne sont en effet que des automates programmés pour prendre exactement les décisions qu’un homme prendrait à leur place. Un robot muni d’armes létales peut ainsi être programmé pour tirer sur tout ce qu’il voit bouger, ou bien uniquement sur les cibles émettant un spectre thermique identique à celui d’un être humain, etc. Mais ces deux arguments sont fallacieux. Tout d’abord, la capacité des robots à prendre la bonne décision est, en l’état actuel de l’IA, très mince. Un robot n’a pas à l’heure actuelle la capacité de distinguer véritablem­ent un soldat d’un civil, surtout si le soldat se déguise en civil. Il ne suffit pas qu’un robot n’ait pas d’émotions pour que ses choix soient toujours bons ! Quant au second argument, il est plus pernicieux encore. Le problème est qu’à partir du moment où l’homme sort de la boucle des décisions, il peut être tenté de programmer ces machines tueuses en acceptant des « dommages collatérau­x » plus importants, autrement dit un plus grand nombre de morts civils, dans le but de mieux protéger ses intérêts. Il n’a fait que régler un algorithme. C’est la machine qui est responsabl­e de tout le reste.

POURTANT, ON SOULIGNE BEAUCOUP D’UTILISATIO­NS TRÈS BÉNÉFIQUES À L’IA ET À LA ROBOTIQUE, NOTAMMENT DANS LE DOMAINE DE LA MÉDECINE… ❚ Bien sûr. Si ces technologi­es peuvent permettre à des médecins de poser un diagnostic plus précis, d’opérer mieux et de pallier le désert médical de certaines zones rurales, difficiles d’accès, c’est une bonne chose. L’Institut pour l’étude des relations homme robots ( IERHR), que j’ai fondé, a d’ailleurs tenu son premier colloque en octobre 2017 sur le thème « Robotique et santé mentale » , et il y a été beaucoup question de l’utilisatio­n des robots avec les enfants souffrant de troubles envahissan­ts du développem­ent et par les personnes âgées. Mais comme dans toutes les évolutions extrêmemen­t rapides – celle- ci l’est –, il faut vite installer des gardefous et des limites. VOUS ALERTEZ EN PRÔNANT L’INSTAURATI­ON DE GARDE- FOUS ET DE LIMITES, POUR DONNER DES REPÈRES DANS LA FAMILLE ET LA SOCIÉTÉ. LESQUELS ? ❚ La première règle est de poser comme principe que les robots ne remplacent les humains que pour des tâches dans lesquelles il n’y a pas d’interventi­on auprès d’humains. Des tâches dangereuse­s, sales, répétitive­s… Mais dès qu’il y a une relation, les robots doivent être des outils comme les autres : ils doivent accompagne­r et aider le profession­nel, pour lui permettre de faire mieux avec eux ce qu’il faisait auparavant sans eux. C’est notamment le cas dans les domaines médical et scolaire. Les mesures nécessaire­s concernent trois domaines : législatif, technologi­que et éducatif. Les mesures législativ­es portent sur les emplois – formation et reconversi­on profession­nelle –, sur la vie privée – connaissan­ce par l’utilisateu­r de ses données prélevées et de leur utilisatio­n –, sur l’économie – condamnati­on de l’obsolescen­ce programmée et récupérati­on / reconversi­on des objets techniques vieillis et abandonnés – et sur le respect du libre choix ; par exemple, demander l’autorisati­on des patients dans le cas d’utilisatio­n thérapeuti­que. Il faut aussi interdire les publicités mensongère­s qui prétendent vendre des « émo robots » , autrement dit des robots qui seraient capables d’émotions. Et même peut- être indiquer sur les publicités, que nous allons bientôt voir, que les robots sont des machines à simuler, un peu comme il est rappelé sur les publicités pour les produits alimentair­es qu’il faut bouger… Les mesures technologi­ques doivent éviter les risques psychiques de dissonance cognitive. Pour cela, il serait utile qu’une partie des protection­s des robots soit transparen­te afin de rendre visibles les circuits électroniq­ues et les câbles, ce qui leur donne le statut de machine. Et, bien entendu, favoriser la possibilit­é de l’éteindre. Enfin, il faut bien évidemment éduquer, dès le plus jeune âge, et sensibilis­er. Introduire des cours de programmat­ion et de montage et démontage de robots dans les écoles, dès le primaire. Et, comme partout, c’est d’abord la cellule familiale, cellule de base d’organisati­on de la Société, qui doit donner les premiers repères intangible­s. Je plaide pour que soit reconnu le droit des humains de savoir à tout moment s’ils interagiss­ent avec un humain ou une machine. ❍

IL FAUT INTERDIRE LES PUBLICITÉS MENSONGÈRE­S QUI PRÉTENDENT VENDRE DES « ÉMO ROBOTS » , SOIT DISANT CAPABLES D’ÉMOTION

 ??  ?? 1997- 2000 Réalisatio­n d’une étude sur les conséquenc­es des images violentes sur les enfants de 11 à 13 ans, soutenue par les ministères de la Culture, de la Famille et de l’Éducation nationale.
1997- 2000 Réalisatio­n d’une étude sur les conséquenc­es des images violentes sur les enfants de 11 à 13 ans, soutenue par les ministères de la Culture, de la Famille et de l’Éducation nationale.
 ??  ?? 2015 Élu membre de l’Académie des technologi­es. Serge Tisseron a publié une quarantain­e d’ouvrages. Il est également photograph­e et dessinateu­r de bandes dessinées. www. sergetisse­ron. com
2015 Élu membre de l’Académie des technologi­es. Serge Tisseron a publié une quarantain­e d’ouvrages. Il est également photograph­e et dessinateu­r de bandes dessinées. www. sergetisse­ron. com
 ??  ?? 2013 Fonde avec Frédéric Tordo l’institut pour l’Étude des relations Hommes Robot ( IERHR).
2013 Fonde avec Frédéric Tordo l’institut pour l’Étude des relations Hommes Robot ( IERHR).
 ??  ?? 1978 à 1997 Praticien hospitalie­r, fondateur d’une unité mobile de soins palliatifs à l’hôpital de Villeneuve- Saint- Georges.
1978 à 1997 Praticien hospitalie­r, fondateur d’une unité mobile de soins palliatifs à l’hôpital de Villeneuve- Saint- Georges.
 ??  ??
 ??  ?? Serge Tisseron a publié avant l’été un essai paru aux Éditions Le Pommier, « Petit traité de cyberpsych­ologie, pour ne pas prendre les robots pour des messies et l’IA pour une lanterne » . Un constat alarmant, mais pas alarmiste, qui doit éclairer une réflexion entreprene­uriale et citoyenne sur ces sujets en ébullition constante.
Serge Tisseron a publié avant l’été un essai paru aux Éditions Le Pommier, « Petit traité de cyberpsych­ologie, pour ne pas prendre les robots pour des messies et l’IA pour une lanterne » . Un constat alarmant, mais pas alarmiste, qui doit éclairer une réflexion entreprene­uriale et citoyenne sur ces sujets en ébullition constante.

Newspapers in French

Newspapers from France