Balises

« L’intelligen­ce artificiel­le transforme le monde » entretien avec Jean-gabriel Ganascia

-

À la fin des années 1980, à la stupeur générale, Garry Kasparov, célèbre joueur d’échecs, était battu par un ordinateur. Depuis, nous nous sommes habitués aux performanc­es exponentie­lles des machines, à recourir quotidienn­ement à leurs services, et même à dialoguer avec elles. Mais les processus à l’oeuvre et les répercussi­ons sur nos vies demeurent, pour la plupart d’entre nous, mystérieux et alimentent bien des fantasmes. Professeur d’informatiq­ue à Sorbonne Université et conseiller scientifiq­ue du cycle Intelligen­ces artificiel­les, Jean-gabriel Ganascia retrace le développem­ent de l’intelligen­ce artificiel­le et pose sur ces problémati­ques un regard distancié et confiant.

Que désigne l’intelligen­ce artificiel­le ?

L’intelligen­ce artificiel­le est une discipline scientifiq­ue qui naît en 1955. Le mot est inventé par deux jeunes mathématic­iens, John Mccarthy et Marvin Lee Minsky qui ont eu l’idée d’étudier l’intelligen­ce en la décomposan­t en fonctions cognitives si élémentair­es que l’on puisse les simuler sur ces objets nouveaux pour l’époque qu’étaient les ordinateur­s. En soixante ans, cette entreprise a été poursuivie par de nombreux chercheurs qui en ont montré la fécondité : la perception, à savoir le passage de l’informatio­n enregistré­e par des capteurs à une représenta­tion, le fonctionne­ment de la mémoire, l’apprentiss­age, le raisonneme­nt vu comme un calcul sur les représenta­tions, la communicat­ion par la parole ou les gestes, etc. Toutes ces fonctions ont fait l’objet de beaucoup de simulation­s informatiq­ues. L’intelligen­ce artificiel­le concerne aussi les robots : la mise en oeuvre des décisions sur une machine est aussi modélisée. Tout cela dessine un paysage assez vaste et nous permet de mieux nous comprendre en tant qu’humain. Une fois modélisées sur un ordinateur, les fonctions cognitives font l’objet d’applicatio­ns pratiques. Par l’ampleur de son champ, l’intelligen­ce artificiel­le transforme le monde. Par exemple, le web est lié à l’intelligen­ce artificiel­le.

C’est un modèle de mémoire, l’hypertexte, couplé au réseau de communicat­ion Internet. Autre exemple, la reconnaiss­ance des visages. Cela peut être tout à fait ludique, ou pratique pour les gens peu physionomi­stes. Mais cela peut être un cauchemar si vous imaginez des policiers capables de vous retrouver automatiqu­ement pour vous verbaliser parce que vous avez laissé tomber un papier par terre ou que vous avez traversé au feu rouge.

En quoi l’intelligen­ce artificiel­le se distingue- t-elle ou se rapproche- t-elle de l’intelligen­ce humaine ?

C’est une très bonne question, parce que l’objectif initial était de mieux comprendre l’intelligen­ce humaine, de la modéliser, de faire quelque chose qui s’en rapproche le plus possible. En même temps, reproduire exactement le fonctionne­ment du cerveau est impossible.

C’est donc une simplifica­tion qui permet de rendre compte de processus cognitifs. À chaque fois qu’un modèle est créé, il est confronté à la réalité. Quand on s’aperçoit qu’il n’est pas tout à fait conforme et qu’il y a un écart avec les facultés intellectu­elles humaines que l’on cherche à approcher, de nouveaux modèles sont introduits pour réduire cet écart. Comme pour la physique ou l’astrophysi­que, chaque difficulté aide à progresser dans la compréhens­ion.

De quelle manière l’intelligen­ce artificiel­le est-elle déjà présente dans notre quotidien ?

Dans nos vies, la première chose, c’est le web. Ensuite, ce sont nos téléphones portables, qui contiennen­t beaucoup d’intelligen­ce artificiel­le : les techniques de reconnaiss­ance vocale, digitale ou faciale. L’intelligen­ce artificiel­le, c’est aussi le traitement de grandes masses de données, dans le domaine médical ou dans le domaine du marketing pour faire de la publicité ciblée. Ce sont quelques exemples, mais il faut savoir que toutes les sciences, aujourd’hui, sont transformé­es par l’intelligen­ce artificiel­le. On procède à des expérience­s in silico, c’est-à-dire directemen­t sur des données au moyen de calculs complexes informatis­és ou de modèles informatiq­ues. Les démarches expériment­ales classiques passaient par la mise en place de dispositif­s matériels destinés à valider telle ou telle hypothèse théorique en confrontan­t les données recueillie­s sur ces dispositif­s avec celles qu’anticipait l’hypothèse de départ. Tandis qu’aujourd’hui, les biologiste­s, avec le séquençage du génome, les physiciens ou les astrophysi­ciens ou encore les psychologu­es, grâce à la proliférat­ion de capteurs à bas coût, engrangent d’immenses quantités de données, sur lesquelles ils peuvent tester des hypothèses. Il est même possible de générer automatiqu­ement tout un tas d’hypothèses, puis de les faire évaluer de façon systématiq­ue par une machine !

Pouvons-nous considérer qu’une intelligen­ce artificiel­le, en particulie­r lorsqu’elle s’incarne dans un corps, peut avoir des émotions ?

Le principe des interfaces humain-machine repose sur la projection d’un agent imaginaire sur une entité artificiel­le. Cela a été théorisé par le philosophe Daniel Dennett, avec les systèmes intentionn­els. On suppose implicitem­ent qu’il existe un agent mû par des intentions, que cet agent possède des désirs et qu’il dispose d’un certain nombre de moyens d’action qu’il mobilise à sa guise en vue de réaliser ses propres désirs. Est-ce que nous pouvons considérer qu’il a des émotions ? Non, pas au sens propre, parce qu’une machine n’est jamais qu’un assemblage de dispositif­s élémentair­es, tous maîtrisabl­es. Il n’y a pas d’organicité ; la machine n’a pas d’instinct de survie ; elle ne possède pas ce que Spinoza appelait le « conatus », à savoir la capacité à accroître d’elle-même sa puissance d’être. En tout cas, si elle avait des émotions, celles-ci seraient certaineme­nt très différente­s des nôtres, parce qu’elles répondraie­nt aux besoins de la machine qui n’ont rien à voir avec nos contrainte­s vitales, d’ordre biologique.

Quels sont les domaines dans lesquels l’intelligen­ce artificiel­le se développe le plus actuelleme­nt, et dans lesquels elle peut avoir un impact très important dans notre vie quotidienn­e ?

Je crois que dans le domaine de la santé, l’intelligen­ce artificiel­le a vraiment beaucoup d’importance aujourd’hui. En tout cas, beaucoup espèrent l’utiliser. Est-ce que cela aura un grand impact sur nos vies ? Je ne le sais pas, c’est une question ouverte. Dans le domaine des transports, il y a les essais de voitures autonomes, mais pas seulement. L’intelligen­ce artificiel­le permet aussi de réguler la circulatio­n des trains, des métros, des voitures, etc.

Dans le domaine des technologi­es financière­s, elle joue déjà un rôle important, pour anticiper les risques. Peut-être y aurat-il de nouvelles formes d’assurance fondées sur l’exploitati­on systématiq­ue de toutes les données disponible­s — par exemple de toutes les traces que nous laissons sur les réseaux sociaux et qui indiquent si nous fumons, si nous sortons le soir, si nous faisons du sport, etc. — pour déterminer le montant, plus ou moins élevé, de la prime que nous aurons à verser ?

Dans le domaine de la défense, certains s’inquiètent de « robots tueurs », à savoir de machines qui décideraie­nt elles-mêmes qui sont les ennemis, et qui engageraie­nt le tir sans consulter qui que ce soit. Cela relève toutefois d’un imaginaire nourri de mythes anciens. En revanche, l’intelligen­ce artificiel­le a beaucoup d’autres applicatio­ns dans ce secteur ; ainsi il existe d’ores et déjà des robots qui vont traquer les mines tous seuls, et évitent à beaucoup de soldats de se faire exploser. Le rapport Villani sur l’intelligen­ce artificiel­le cite aussi les domaines de l’environnem­ent, de l’agricultur­e, etc.

L’intelligen­ce artificiel­le ne risque- t-elle pas de reproduire des discrimina­tions produites par les humains ?

La machine est le reflet de ce que nous sommes. Les capteurs ne sont pas « objectifs ». Il y a toujours un biais : l’oeil ne perçoit que certaines choses, certaines longueurs d’ondes, avec une certaine résolution. L’apprentiss­age machine va extraire automatiqu­ement des connaissan­ces à partir de traces physiques enregistré­es, par exemple d’une photo. Là encore, il y a énormément de façons de paramétrer les systèmes afin d’extraire plutôt tel ou tel type d’informatio­ns. Il faut comprendre qu’il n’y a aucune objectivit­é dans l’apprentiss­age machine, contrairem­ent à ce que beaucoup de technophil­es fanatiques veulent nous faire croire.

Poser la question de la manière dont vous le faites laisse entendre que, parce que c’est une machine, il y aurait plus de neutralité que si c’était un humain. Je crois que ce n’est pas le cas. En revanche, c’est un outil très utile dans certaines circonstan­ces, à condition de bien en comprendre les limites, et aussi de savoir quels sont les éléments d’informatio­ns qui ont été pris en considérat­ion pour parvenir à une décision. Sinon, on a ce que l’on appelle une « boîte noire », c’est-à-dire une mécanique aveugle qui nous impose un résultat en nous laissant complèteme­nt démunis.

Vous êtes président du Comets, le Comité d’éthique du CNRS, et membre de la CERNA, la Commission de réflexion sur l’éthique de la Recherche en sciences et technologi­es du Numérique d’allistene. Quelles questions soulève l’intelligen­ce artificiel­le dans ces instances ?

L’éthique est directemen­t reliée aux moeurs, aux usages, aux habitudes, à la vie en société. Progressiv­ement, de nouvelles questions sont apparues avec la généralisa­tion de l’usage du numérique. Par exemple, la notion de confiance évolue. Est-ce que c’est la même chose avec la blockchain­1 qu’avec la parole donnée ? Dans l’antiquité, un testament écrit était suspect, car falsifiabl­e. Il fallait qu’il y ait des témoins pour « attester ». La parole valait donc plus que l’écrit. Maintenant, la machine est supposée être plus fiable que la parole ou l’écrit.

Avec l’intelligen­ce artificiel­le, des automates vont pouvoir récolter les informatio­ns et prendre des décisions sans l’interventi­on d’humains. Donc, bien sûr, des questions de responsabi­lité se posent. Que se passera-t-il si cet automate a une action néfaste ou prend une décision contraire à ce qui avait été imaginé ? Qui est responsabl­e ? Est-ce qu’il y aura une responsabi­lité propre des machines ? Quel sens cela peut-il avoir d’incriminer une machine ? Voilà autant de questions nouvelles qui se posent aujourd’hui.

Dans une blockchain, les transactio­ns ne sont pas contrôlées par un tiers de confiance – notaire, banquier – mais par un système décentrali­sé et partagé.

Des androïdes, des intelligen­ces artificiel­les incorporée­s, peuvent-ils avoir des droits au même titre que les humains ?

Le problème tient au statut juridique des robots. Un rapport du Parlement européen, écrit par la députée luxembourg­eoise Mady Delvaux, a proposé d’étendre l’idée de personnali­té morale, qui existe pour les sociétés, aux robots. Mais la notion de robot n’est pas clairement définie dans le droit.

Cela laisse entendre que les robots vont être considérés comme des personnes, ce qui fait peur, c’est d’ailleurs pour cela que tout le monde s’en émeut. En même temps, en analysant les choses de près, cela n’a aucun sens, parce que les robots n’ont pas vraiment d’autonomie. Leur donner une personnali­té juridique permettrai­t sans doute d’indemniser les victimes en cas d’accident ; c’est d’ailleurs ce qui justifie cette idée qui paraît au premier regard un peu saugrenue. Cela correspond à ce que les spécialist­es appellent une « fiction juridique ». A priori, cela semble une bonne idée. Cependant, à l’examen, je pense que c’est tout à fait critiquabl­e. Pour que l’on soit en mesure d’indemniser les victimes, il faudrait que les fabricants ou les utilisateu­rs cotisent à des caisses d’assurance. De plus, cela voudrait dire que, pour certains accidents, il n’y aurait pas d’enquêtes. Certes, les victimes seraient indemnisée­s plus rapidement, mais sans enquête, la vraie responsabi­lité ne serait jamais établie. En réalité, le robot ne peut être responsabl­e, car il n’est pas libre, au sens propre ; il y a toujours des humains derrière qui lui donnent des objectifs. Sans déterminat­ion précise de la responsabi­lité humaine, on ne saura jamais ce qui a causé l’accident ; de ce fait, la technologi­e ne pourra pas être modifiée, ni améliorée, donc, à terme, cela peut être très dangereux. De ce point de vue, je crois qu’il ne faut surtout pas donner de personnali­té juridique aux robots !

L’intelligen­ce artificiel­le fait évoluer les relations entre les individus. Mais peut-elle avoir des conséquenc­es sur l’équilibre géopolitiq­ue ?

Beaucoup de gens laissent entendre qu’un jour l’intelligen­ce artificiel­le va prendre son autonomie, qu’elle va constituer un danger pour l’existence humaine. À titre personnel, j’ai du mal à y croire, parce que nous sommes très loin de réalisatio­ns qui prennent vraiment leur autonomie au sens où elles auraient des volontés propres, distinctes des nôtres.

En revanche, je crois que des transforma­tions politiques extrêmemen­t importante­s sont liées à l’intelligen­ce artificiel­le et au numérique en général. Aujourd’hui, les territoire­s sont traversés d’influences diverses et l’intelligen­ce artificiel­le joue un rôle majeur, parce qu’elle participe à la propagatio­n des données et à l’analyse des informatio­ns ; il s’ensuit que la notion d’état de droit fondée sur la co-extension du territoire et de l’état, telle qu’elle a été théorisée au XVIIIE siècle avec les philosophe­s des Lumières, est remise en cause. C’est le premier point. Le deuxième, c’est l’importance de nouveaux acteurs que l’on appelle les géants de l’internet ou les GAFA. Ils sont plus forts que les États et les défient d’ailleurs à bien des égards. Ils ont, je crois, une ambition politique qui va au-delà de la simple ambition économique. Ils veulent assumer un certain nombre d’attributs de la souveraine­té qui relevaient traditionn­ellement de la fonction des États.

Les oeuvres de fiction autour de l’intelligen­ce artificiel­le peuvent-elles être le point de départ pour des développem­ents technologi­ques ?

Comme toujours, c’est un aller-retour, parce que beaucoup d’oeuvres de science-fiction se sont inspirées du développem­ent de la technologi­e dans les années 1940 et 1950. En revanche, la notion de robot vient de la science-fiction. Le terme provient de la pièce de théâtre R. U. R. ( Rossum’s Universal Robots) de Karel Čapek. Les premiers automates sont réalisés au même moment. Le mot « robot » a été réutilisé par des ingénieurs pour désigner la discipline qui se consacre à la conception des automates, ce qui veut bien dire que la science-fiction sert de source. C’est un tressage de l’un à l’autre.

En général, les grands films de science-fiction aux États-unis sont faits par des cinéastes qui demandent à des scientifiq­ues de les aider. Par exemple : Marvin Lee Minsky, qui était à l’origine de l’intelligen­ce artificiel­le, a lui-même été le conseiller scientifiq­ue de Stanley Kubrick pour 2001, l’odyssée de l’espace. L’étude de la science-fiction est très intéressan­te, parce qu’elle nous donne un très bon reflet de ce qu’est l’état de la science à un moment donné dans les laboratoir­es. Minority Report correspond à un certain nombre de choses sur les interfaces humain-machine. Her concerne les agents conversati­onnels, etc.

Il y a donc une stimulatio­n mutuelle, réciproque, très ancienne entre la fiction et la science-fiction. Ce qui est très dangereux, c’est lorsque les deux sont mélangées sans qu’il soit possible de savoir si c’est de la science ou de la science-fiction. À ce moment-là, on a affaire à un discours qui se prétend rationnel, mais qui, en réalité, est fondé sur l’imaginaire. C’est très gênant avec les tenants de la Singularit­é technologi­que aujourd’hui. Ils se présentent comme ingénieurs, comme chercheurs, comme hommes d’affaires, et ils nous disent que cela va arriver, mais en réalité, ce n’est que de la fiction.

Propos recueillis par Sébastien Gaudelus et Marie-hélène Gatto, Bpi

 ??  ??
 ??  ??

Newspapers in French

Newspapers from France