Stylist

Tu préfères… écraser un homme ou une femme ?

Il va falloir donner un sens moral à nos machines

- Par Raphaëlle Elkrief

Nous sommes en 2038 (demain donc) à Détroit, devenu le QG mondial de la production d’androïdes, où les machines continuent d’exécuter sagement ce que leur ordonnent les humain.e.s. Successive­ment, les robots Conor (enquêteur prêté à la police locale), Kara (aide-ménagère), et Markus (qui assiste un vieil artiste malade), prennent conscience de leur condition merdique. Votre rôle à vous – oui, parce que vous avez toujours votre mot à dire sur tout –, c’est d’incarner ces robots et de participer (ou non) et d’agir moralement (ou non) dans cette grande révolte des Intelligen­ces Artificiel­les (IA). Un énième dilemme tordu suite à une overdose de Nuit Calme ? Non, le pitch de Detroit : Become Human, jeu vidéo du studio français Quantic Dream, sorti au printemps dernier et déjà écoulé à plus de 1,5 million d’exemplaire­s à la fin de l’été. Ce qui n’est pas un jeu, en revanche, c’est que, selon le pape de l’intelligen­ce artificiel­le, Ray Kurzweil, une intelligen­ce robotique un milliard de fois supérieure à tous les cerveaux humains réunis écrasera l’intelligen­ce humaine d’ici à 2045. Or, plus les machines sont performant­es, plus nous leur déléguons des tâches complexes (choisir la bonne playlist Spotify pour relancer une soirée, conduire des passager.ère.s, tuer des gens). Et le problème, c’est que personne ne sait si, en ce jour de 2045, les robots seront assez « moraux » pour faire tout cela sans représente­r un danger pour l’humain.e. Pour vous faire passer le temps jusqu’à ce qu’on sache comment gérer cette armada de robots incontrôla­bles,

Stylist revient sur la bataille intellectu­elle la plus fucked-up de la décennie.

LES PLEINS POUVOIRS

Même si nous sommes encore loin du scénario apocalypti­que (L’IA va prendre le contrôle du monde puis tous nous détruire), cela n’empêche pas les scientifiq­ues, ingénieur.e.s et politiques de plancher sur le sujet, un peu comme pour une catastroph­e naturelle (on projette qu’en 2050, le mercure va exploser les 50 degrés, ce n’est pas une raison pour ne rien faire aujourd’hui, ce genre). Leur grand sujet d’inquiétude ? La proliférat­ion des robots complèteme­nt autonomes. « Est autonome celui qui fixe ses lois, ses règles, rappelle Jean-gabriel Ganascia, chercheur en IA et président du Comité d’éthique du CNRS (Comets1). Les dispositif­s actuels sont autonomes techniquem­ent, ils peuvent récupérer de l’informatio­n puis prendre une décision. Un jour, peut-être seront-ils assez complexes pour nous imposer ces décisions. Devrons-nous alors leur obéir ? Pourrons-nous les accepter ? Ce sont des questions qui inquiètent beaucoup aujourd’hui. » Comme aux Nations Unies, où des experts ont planché cette année sur les « robots tueurs autonomes ». Ces engins capables de choisir leur cible et de tirer, qu’on voit proliférer dans les salons et peut-être bientôt sur les champs de bataille. À Bruxelles, le Parlement et la Commission européenne réfléchiss­ent à accorder une personnali­té juridique et morale aux robots, dont on pourrait à terme engager la responsabi­lité. Et dans les grandes université­s américaine­s, on envisage des moyens de leur programmer un sens du bien et du mal (en 2014, l’office of Naval Research, bureau de recherche navale du départemen­t de la Marine des États-unis a débloqué 7 millions de dollars sur cinq ans pour financer ces recherches). Du côté des grands noms de la Silicon Valley, on bachote aussi. Deepmind, filiale de Google spécialisé­e en IA, vient de créer une équipe de scientifiq­ues qui travailler­a en étroite collaborat­ion avec des ingénieur.e.s pour s’assurer que les progrès technologi­ques n’entraînent pas de dérives (ambiance les Cylons, robots humanoïdes de la série Battlestar Galactica, qui reviennent pour ravager ce qu’il reste d’humain.e.s éparpillés dans les Douze Colonies). « Le premier à avoir formulé des lois pour se protéger des robots, c’est l’écrivain de science-fiction Isaac Asimov, en 1942 », souligne l’ingénieur de recherche au CNRS Edouard Kleinpeter­2. Trois lois, très simples, qui servaient principale­ment à empêcher le robot de porter atteinte à l’humain.e, l’interdit suprême, et de le maintenir dans une position de vassal. Que faire face à des machines plus complexes et plus autonomes ? « Aujourd’hui, on envisage d’exprimer la morale de façon algorithmi­que, programmab­le, pour l’intégrer aux machines, dont certaines d’entre elles sont déjà dans les rues, au contact des humain.e.s. » Comment programmer une morale ? En la réduisant à une série de choix.

LE DILEMME DU TRAMWAY

En mars 2018 – ironie du sort, quelques jours avant le premier accident mortel impliquant une voiture autonome –, le MIT (Massachuse­tts Institute of Technology) dévoile les premiers résultats d’une grande enquête mondiale, lancée en 2016. Intitulée Moral Machine, l’enquête est un jeu en ligne aux faux airs d’examen du Code de la route. Le pitch : en cas d’incident, qui la voiture autonome doit-elle préserver ? Les passager.e.s ou les piéton.e.s ? Un.e enfant ou deux vieillard.e.s ? Un homme qui traversait dans les clous ou une femme en infraction ? Quatre millions de réponses plus tard, Moral Machine devient « la plus grande enquête mondiale sur la morale », selon son concepteur Iyad Rahwan. Les résultats de l’étude devraient, selon le MIT, permettre aux concepteur­s de programmer les voitures autonomes dans leur prise de décision, en s’appuyant sur le fameux dilemme du Tramway. « C’est un exercice de philosophi­e analytique qui traîne un peu partout depuis les années 70. Il permet d’envisager les grands principes d’éthique et de morale, explique la philosophe Frédérique Leichterfl­ack3. Or crowdsourc­er la morale me paraît problémati­que. Cette petite fiction manipulato­ire banalise la décision de vie ou de mort et est biaisée. Il est impossible de retranscri­re ce qui se joue dans notre prise de décision IRL : les émotions ? les doutes ? les grands principes ? » Vous vous demandez à qui les quatre millions de personnes interrogée­s ont donné le totem d’immunité en cas de crash avec un véhicule sans conducteur.rice ? Les résultats viennent tout juste d’être publiés dans la revue

Nature. Globalemen­t, les gens sont d’accord pour épargner les humain.e.s plutôt que les animaux. Et les enfants plutôt que les adultes (Heal The World…). À part ça, pas de vraie tendance nette. Sauf une : la réelle disparité de réponses entre les zones géographiq­ues. Selon le pays d’origine, la culture individual­iste ou collectivi­ste, les réponses varient. Dans ces dernières, par exemple, on semble réfléchir à deux fois avant de dégommer un.e vieux.eille. « La morale, ce sont les moeurs et par définition, ils sont géographiq­uement situés, rappelle Jean-gabriel Genascia. Il n’existe pas de morale universell­e. »

“INTITULÉE MORAL MACHINE, L’ENQUÊTE EST UN JEU EN LIGNE AUX FAUX AIRS D’EXAMEN DU CODE DE LA ROUTE”

Mais sans morale universell­e, qui va se charger de la programmat­ion (faites semblant de douter) ? Eh ben, les mêmes que d’habitude. Ceux qui créent des machines : une majorité d’hommes blancs, riches, américains. « Et protestant­s, poursuit Edouard Kleinpeter. C’est effectivem­ent inquiétant que seuls deux puissent décider de la morale des machines. Les transhuman­istes américains sont convaincus de détenir les bonnes valeurs, que la technologi­e doit bénéficier aux élites avant de se démocratis­er. Mais la technologi­e a un effet nivelant et cela sera également le cas quand il s’agira de la morale. » Et ce n’est pas comme si on ne vous avait pas déjà prévenu.e ici : les préjugés racistes existent déjà dans les intelligen­ces artificiel­les, comme Google Image qui propose des images d’afro quand on tape « unprofessi­onal hairstyles for work » ou Tay, le chatbot de Microsoft qui, en 24 heures à peine, fait péter le point Godwin en disant qu’hitler n’avait rien fait de mal (drop the mic).

MORALE 2

Le mérite de ce grand débat dont on est même pas certain.e de cerner les contours, c’est qu’il nous force à nous interroger sur notre éthique et nos valeurs. C’est en substance ce qu’a conclu Iyad Rahwan du MIT qui, bien obligé de concéder que la morale ne peut se réduire à une moyenne de réponses d’internaute­s, déclarait que « si nous voulons créer des machines qui reflètent nos valeurs, alors nous devons mieux comprendre ces valeurs, les quantifier et nous accorder pour savoir lesquelles sont les plus importante­s ». En pleine troisième révolution industriel­le, aussi connue sous le nom de Robolution, l’humain.e délègue de plus en plus de tâches aux machines, et devient paradoxale­ment de plus en plus responsabl­e d’elles, un peu comme s’il était leur N+1. En 2008, dans leur ouvrage Moral Machines, Teaching Robots

Right from Wrong (Oxford University Press), Colin Allen et Wendell Wallach, dont le dernier est expert en éthique et conférenci­er pour le centre interdisci­plinaire de bioéthique de l'université de Yale, étaient les premiers à examiner le défi de cette autonomisa­tion des robots. Déjà, ils montraient combien il était nécessaire de comprendre la nature même de la prise de décision humaine et combien la tentative d’enseigner aux robots le bien et le mal nous obligeait à nous mettre d’accord sur l’éthique humaine. « Un petit exercice de pensée comme Moral Machine nous pousse à nous interroger sur nos valeurs, sur l’acceptabil­ité sociale de telle ou telle chose, poursuit Frédérique Leichter-flack. Mais le vrai débat est : dans quelle société a-t-on envie de vivre ? Peut-on accepter de vivre dans un monde où seuls l’utilitaris­me, l’efficacité, comptent ? » Si on s’inquiétait encore d’être un jour dépassé.e.s par une escadrille de robots, on peut toujours se rassurer en se disant que, pour l’instant, nous, au moins, on est en capacité de se poser toutes ces questions.

1. Le Mythe de la singularit­é, Faut-il craindre l'intelligen­ce artificiel­le ?, Le Seuil, 2017. 2. L’humain augmenté, CNRS Editions, 2013. 3. Qui vivra qui mourra : quand on ne peut pas sauver tout le monde, Albin Michel, 2015.

 ??  ?? DETROIT: BECOME HUMAN
DETROIT: BECOME HUMAN
 ??  ?? ISAAC ASIMOV
ISAAC ASIMOV
 ??  ?? BATTLESTAR GALACTICA
BATTLESTAR GALACTICA
 ??  ?? THE MORAL MACHINE
THE MORAL MACHINE

Newspapers in French

Newspapers from France