Tu préfères… écraser un homme ou une femme ?
Il va falloir donner un sens moral à nos machines
Nous sommes en 2038 (demain donc) à Détroit, devenu le QG mondial de la production d’androïdes, où les machines continuent d’exécuter sagement ce que leur ordonnent les humain.e.s. Successivement, les robots Conor (enquêteur prêté à la police locale), Kara (aide-ménagère), et Markus (qui assiste un vieil artiste malade), prennent conscience de leur condition merdique. Votre rôle à vous – oui, parce que vous avez toujours votre mot à dire sur tout –, c’est d’incarner ces robots et de participer (ou non) et d’agir moralement (ou non) dans cette grande révolte des Intelligences Artificielles (IA). Un énième dilemme tordu suite à une overdose de Nuit Calme ? Non, le pitch de Detroit : Become Human, jeu vidéo du studio français Quantic Dream, sorti au printemps dernier et déjà écoulé à plus de 1,5 million d’exemplaires à la fin de l’été. Ce qui n’est pas un jeu, en revanche, c’est que, selon le pape de l’intelligence artificielle, Ray Kurzweil, une intelligence robotique un milliard de fois supérieure à tous les cerveaux humains réunis écrasera l’intelligence humaine d’ici à 2045. Or, plus les machines sont performantes, plus nous leur déléguons des tâches complexes (choisir la bonne playlist Spotify pour relancer une soirée, conduire des passager.ère.s, tuer des gens). Et le problème, c’est que personne ne sait si, en ce jour de 2045, les robots seront assez « moraux » pour faire tout cela sans représenter un danger pour l’humain.e. Pour vous faire passer le temps jusqu’à ce qu’on sache comment gérer cette armada de robots incontrôlables,
Stylist revient sur la bataille intellectuelle la plus fucked-up de la décennie.
LES PLEINS POUVOIRS
Même si nous sommes encore loin du scénario apocalyptique (L’IA va prendre le contrôle du monde puis tous nous détruire), cela n’empêche pas les scientifiques, ingénieur.e.s et politiques de plancher sur le sujet, un peu comme pour une catastrophe naturelle (on projette qu’en 2050, le mercure va exploser les 50 degrés, ce n’est pas une raison pour ne rien faire aujourd’hui, ce genre). Leur grand sujet d’inquiétude ? La prolifération des robots complètement autonomes. « Est autonome celui qui fixe ses lois, ses règles, rappelle Jean-gabriel Ganascia, chercheur en IA et président du Comité d’éthique du CNRS (Comets1). Les dispositifs actuels sont autonomes techniquement, ils peuvent récupérer de l’information puis prendre une décision. Un jour, peut-être seront-ils assez complexes pour nous imposer ces décisions. Devrons-nous alors leur obéir ? Pourrons-nous les accepter ? Ce sont des questions qui inquiètent beaucoup aujourd’hui. » Comme aux Nations Unies, où des experts ont planché cette année sur les « robots tueurs autonomes ». Ces engins capables de choisir leur cible et de tirer, qu’on voit proliférer dans les salons et peut-être bientôt sur les champs de bataille. À Bruxelles, le Parlement et la Commission européenne réfléchissent à accorder une personnalité juridique et morale aux robots, dont on pourrait à terme engager la responsabilité. Et dans les grandes universités américaines, on envisage des moyens de leur programmer un sens du bien et du mal (en 2014, l’office of Naval Research, bureau de recherche navale du département de la Marine des États-unis a débloqué 7 millions de dollars sur cinq ans pour financer ces recherches). Du côté des grands noms de la Silicon Valley, on bachote aussi. Deepmind, filiale de Google spécialisée en IA, vient de créer une équipe de scientifiques qui travaillera en étroite collaboration avec des ingénieur.e.s pour s’assurer que les progrès technologiques n’entraînent pas de dérives (ambiance les Cylons, robots humanoïdes de la série Battlestar Galactica, qui reviennent pour ravager ce qu’il reste d’humain.e.s éparpillés dans les Douze Colonies). « Le premier à avoir formulé des lois pour se protéger des robots, c’est l’écrivain de science-fiction Isaac Asimov, en 1942 », souligne l’ingénieur de recherche au CNRS Edouard Kleinpeter2. Trois lois, très simples, qui servaient principalement à empêcher le robot de porter atteinte à l’humain.e, l’interdit suprême, et de le maintenir dans une position de vassal. Que faire face à des machines plus complexes et plus autonomes ? « Aujourd’hui, on envisage d’exprimer la morale de façon algorithmique, programmable, pour l’intégrer aux machines, dont certaines d’entre elles sont déjà dans les rues, au contact des humain.e.s. » Comment programmer une morale ? En la réduisant à une série de choix.
LE DILEMME DU TRAMWAY
En mars 2018 – ironie du sort, quelques jours avant le premier accident mortel impliquant une voiture autonome –, le MIT (Massachusetts Institute of Technology) dévoile les premiers résultats d’une grande enquête mondiale, lancée en 2016. Intitulée Moral Machine, l’enquête est un jeu en ligne aux faux airs d’examen du Code de la route. Le pitch : en cas d’incident, qui la voiture autonome doit-elle préserver ? Les passager.e.s ou les piéton.e.s ? Un.e enfant ou deux vieillard.e.s ? Un homme qui traversait dans les clous ou une femme en infraction ? Quatre millions de réponses plus tard, Moral Machine devient « la plus grande enquête mondiale sur la morale », selon son concepteur Iyad Rahwan. Les résultats de l’étude devraient, selon le MIT, permettre aux concepteurs de programmer les voitures autonomes dans leur prise de décision, en s’appuyant sur le fameux dilemme du Tramway. « C’est un exercice de philosophie analytique qui traîne un peu partout depuis les années 70. Il permet d’envisager les grands principes d’éthique et de morale, explique la philosophe Frédérique Leichterflack3. Or crowdsourcer la morale me paraît problématique. Cette petite fiction manipulatoire banalise la décision de vie ou de mort et est biaisée. Il est impossible de retranscrire ce qui se joue dans notre prise de décision IRL : les émotions ? les doutes ? les grands principes ? » Vous vous demandez à qui les quatre millions de personnes interrogées ont donné le totem d’immunité en cas de crash avec un véhicule sans conducteur.rice ? Les résultats viennent tout juste d’être publiés dans la revue
Nature. Globalement, les gens sont d’accord pour épargner les humain.e.s plutôt que les animaux. Et les enfants plutôt que les adultes (Heal The World…). À part ça, pas de vraie tendance nette. Sauf une : la réelle disparité de réponses entre les zones géographiques. Selon le pays d’origine, la culture individualiste ou collectiviste, les réponses varient. Dans ces dernières, par exemple, on semble réfléchir à deux fois avant de dégommer un.e vieux.eille. « La morale, ce sont les moeurs et par définition, ils sont géographiquement situés, rappelle Jean-gabriel Genascia. Il n’existe pas de morale universelle. »
“INTITULÉE MORAL MACHINE, L’ENQUÊTE EST UN JEU EN LIGNE AUX FAUX AIRS D’EXAMEN DU CODE DE LA ROUTE”
Mais sans morale universelle, qui va se charger de la programmation (faites semblant de douter) ? Eh ben, les mêmes que d’habitude. Ceux qui créent des machines : une majorité d’hommes blancs, riches, américains. « Et protestants, poursuit Edouard Kleinpeter. C’est effectivement inquiétant que seuls deux puissent décider de la morale des machines. Les transhumanistes américains sont convaincus de détenir les bonnes valeurs, que la technologie doit bénéficier aux élites avant de se démocratiser. Mais la technologie a un effet nivelant et cela sera également le cas quand il s’agira de la morale. » Et ce n’est pas comme si on ne vous avait pas déjà prévenu.e ici : les préjugés racistes existent déjà dans les intelligences artificielles, comme Google Image qui propose des images d’afro quand on tape « unprofessional hairstyles for work » ou Tay, le chatbot de Microsoft qui, en 24 heures à peine, fait péter le point Godwin en disant qu’hitler n’avait rien fait de mal (drop the mic).
MORALE 2
Le mérite de ce grand débat dont on est même pas certain.e de cerner les contours, c’est qu’il nous force à nous interroger sur notre éthique et nos valeurs. C’est en substance ce qu’a conclu Iyad Rahwan du MIT qui, bien obligé de concéder que la morale ne peut se réduire à une moyenne de réponses d’internautes, déclarait que « si nous voulons créer des machines qui reflètent nos valeurs, alors nous devons mieux comprendre ces valeurs, les quantifier et nous accorder pour savoir lesquelles sont les plus importantes ». En pleine troisième révolution industrielle, aussi connue sous le nom de Robolution, l’humain.e délègue de plus en plus de tâches aux machines, et devient paradoxalement de plus en plus responsable d’elles, un peu comme s’il était leur N+1. En 2008, dans leur ouvrage Moral Machines, Teaching Robots
Right from Wrong (Oxford University Press), Colin Allen et Wendell Wallach, dont le dernier est expert en éthique et conférencier pour le centre interdisciplinaire de bioéthique de l'université de Yale, étaient les premiers à examiner le défi de cette autonomisation des robots. Déjà, ils montraient combien il était nécessaire de comprendre la nature même de la prise de décision humaine et combien la tentative d’enseigner aux robots le bien et le mal nous obligeait à nous mettre d’accord sur l’éthique humaine. « Un petit exercice de pensée comme Moral Machine nous pousse à nous interroger sur nos valeurs, sur l’acceptabilité sociale de telle ou telle chose, poursuit Frédérique Leichter-flack. Mais le vrai débat est : dans quelle société a-t-on envie de vivre ? Peut-on accepter de vivre dans un monde où seuls l’utilitarisme, l’efficacité, comptent ? » Si on s’inquiétait encore d’être un jour dépassé.e.s par une escadrille de robots, on peut toujours se rassurer en se disant que, pour l’instant, nous, au moins, on est en capacité de se poser toutes ces questions.
1. Le Mythe de la singularité, Faut-il craindre l'intelligence artificielle ?, Le Seuil, 2017. 2. L’humain augmenté, CNRS Editions, 2013. 3. Qui vivra qui mourra : quand on ne peut pas sauver tout le monde, Albin Michel, 2015.