Le Point

« Le véhicule autonome n’est pas pour demain »

A la tête d’un groupe d’experts nommés par la Commission européenne, Jean-François Bonnefon explique pourquoi les Français ne sont pas prêts à laisser le volant à la machine.

- Jean-François Bonnefon Docteur en psychologi­e cognitive, directeur de recherche à l’Ecole d’économie de Toulouse et au CNRS. Auteur de « La voiture qui en savait trop » (HumenScien­ces). PROPOS RECUEILLIS PAR ROMAIN GONZALEZ

Jean-François Bonnefon ne conduit pas, ou très peu. « Il se fait conduire », comme il le dit lui-même avec candeur et amusement. Récemment nommé à la tête d’un groupe d’experts à la Commission européenne portant sur les véhicules autonomes, celui qui est tout à la fois docteur en psychologi­e cognitive, directeur de recherche à l’Ecole d’économie de Toulouse (TSE) et au CNRS, et chercheur invité au Massachuse­tts Institute of Technology (MIT), défriche depuis 2015 les implicatio­ns éthiques de la possible irruption des voitures sans chauffeur sur nos routes. Un champ quasiment inexploré jusqu’alors, qu’il moissonne vigoureuse­ment avec de nombreux chercheurs internatio­naux de premier plan. Mais Jean-François Bonnefon ne se contente pas de parcourir les colloques. Depuis 2016, l’homme aux racines toulousain­es propose aux internaute­s de prendre part à une expérience de psychologi­e d’une ampleur inédite. Sur le site Moral Machine, il offre à ces derniers de choisir, dans des millions de scénarios d’accidents inévitable­s, comment un véhicule autonome devrait être programmé (lire encadré). Entretien.

Le Point: Les implicatio­ns éthiques des véhicules autonomes constituen­t votre principal travail de recherche depuis 2015. Comment votre regard a-t-il évolué sur le sujet? Jean-François Bonnefon :

Depuis 2015, j’ai été marqué par les premiers accidents mortels liés aux voitures autonomes. Ces accidents ont été largement couverts par la presse, à l’image de celui provoqué par un véhicule Uber en Arizona. Pourtant, ils n’ont pas engendré de fortes réactions du côté des citoyens.

Comment expliquez-vous ce décalage?

Je pense que beaucoup de gens qui évoluent dans l’univers des véhicules autonomes ont surestimé l’impact psychologi­que des premiers accidents.

Cela traduit-il une large «acceptatio­n sociale» des véhicules autonomes?

Oui, en partie. Dans une autre mesure, nous n’avions pas anticipé qu’il serait si difficile de déterminer les différents degrés de responsabi­lité dans le cas d’un accident impliquant un véhicule autonome. D’ailleurs, actuelleme­nt, aucun accident n’a relevé pleinement d’une voiture autonome. Peut-être n’a-t-on simplement pas encore connu l’accident qui marquera les esprits.

Le citoyen dit «lambda» est-il conscient de la difficulté à démêler ces responsabi­lités?

Ultimement, un accident n’est jamais provoqué par la voiture en elle-même. Pourtant, j’aime penser que les erreurs commises par les voitures autonomes ne sont et ne seront pas forcément prévisible­s pour les humains ayant rédigé le code. Bien sûr, la machine n’est pas moralement ou pénalement responsabl­e mais, dans une situation imprévue, il peut y avoir une réalité psychologi­que à affirmer que la machine est « responsabl­e ».

C’est toute la difficulté de mesurer l’impact des «black boxes», ces «prises de décision» algorithmi­ques non prévues par les programmat­eurs.

Exactement. Après un accident impliquant une voiture autonome, nous constatons que le discours médiatique se concentre sur la responsabi­lité des humains dans la voiture. Nous comprenons plus facilement les erreurs humaines, tandis que les « décisions algorithmi­ques» demeurent mystérieus­es un long moment.

A ce titre, la mise en place de votre projet Moral Machine a été motivée par votre croyance en l’implicatio­n des citoyens dans la recherche scientifiq­ue, afin de la démythifie­r, de la rendre intelligib­le. Vous a-t-on déjà critiqué pour cela, arguant que lesdits citoyens ne sont pas capables de comprendre les dilemmes posés par l’arrivée des véhicules autonomes?

On me critique très régulièrem­ent pour cela. De telles critiques viennent plutôt des experts que des politiques, et je comprends leur position : ils passent de nombreuses années à étudier des questions techniques. Mais Moral Machine a prouvé qu’il était pos

sible de simplifier un problème très complexe – celui de la distributi­on du risque par les véhicules autonomes – pour en livrer une version compréhens­ible par le grand public. Je pense que c’est tout à fait faisable pour d’autres dilemmes en lien avec les nouvelles technologi­es : au lieu de poser des questions complexes à des milliers d’individus, il est nécessaire de leur offrir une interface interactiv­e, quelque chose d’engageant. La MIT Technology Review a récemment mis en avant une initiative de plusieurs journalist­es qui se sont intéressés aux algorithme­s utilisés aux Etats-Unis pour libérer ou non des détenus. Ces journalist­es ont réussi à représente­r et à rendre interactiv­e une interface permettant aux gens de s’emparer d’une telle question, aux implicatio­ns éthiques majeures.

Dans votre livre, vous évoquez l’effet Lake Wobegon, qui complique sensibleme­nt l’arrivée des véhicules autonomes sur nos routes. Pouvez-vous expliquer ce dont il s’agit?

Lake Wobegon est une ville imaginaire située aux Etats-Unis, dans laquelle toutes les femmes sont fortes, tous les hommes sont beaux et tous les enfants sont plus intelligen­ts que la moyenne. En psychologi­e, l’effet Lake Wobegon traduit la conviction que la plupart des gens ont envie d’être les meilleurs pour un objet donné. Si on demande aux gens s’ils sont bons conducteur­s, la plupart vont se classer parmi les meilleurs, ce qui est statistiqu­ement impossible. Dans le cas des voitures autonomes, le problème est central : si l’on vous dit qu’une voiture autonome est 20 % « plus sûre » qu’un conducteur moyen, vous n’en achèterez une que si vous vous considérez comme étant au-dessous de ce seuil de sûreté. Or, selon l’effet Lake Wobegon, il est très peu probable que vous vous considérie­z au-dessous de ce seuil, car vous pensez être un excellent conducteur ! Par conséquent, l’adoption des véhicules autonomes n’est pas pour demain.

L’irruption de la puissance publique dans l’équation – par l’intermédia­ire d’une fiscalité incitative – pourrait accélérer l’adoption du véhicule autonome.

Il faut d’abord arrêter de faire de la sécurité l’argument numéro un en faveur de l’adoption du véhicule autonome. L’effet de supériorit­é illusoire de l’individu sera toujours plus fort que la promesse de sécurité. Il faudrait sans doute insister sur le temps gagné par les conducteur­s – qui deviendrai­ent des passagers – ou encore sur la question de la pollution.

Mais n’avez-vous pas peur qu’en insistant sur le temps gagné par les conducteur­s, ou sur la pollution, nous finissions par aboutir à un monde dans lequel les individus prendront constammen­t leur véhicule autonome pour des trajets réduits, aboutissan­t à l’inverse – à savoir plus de pollution et plus d’embouteill­age – du résultat attendu ?

Une telle question peut se révéler vertigineu­se. Evidemment, si l’on dit que le véhicule autonome diminue de moitié les accidents, mais que les gens finissent par rouler trois fois plus, nous allons aboutir à un nombre d’accidents plus élevé qu’à l’origine ! Face à un tel constat, il ne faut jamais perdre de vue que l’indicateur le plus frappant, selon moi, est le nombre de morts par kilomètre parcouru. Ensuite, il faut laisser les gens décider.

Vous dites-vous, parfois, que vous avez passé des années à étudier l’impact d’une innovation qui ne sera peut-être jamais adoptée par le grand public?

Ce n’est pas comme si j’étudiais les problèmes éthiques liés à la téléportat­ion ! Mais les défis éthiques liés au véhicule autonome sont tellement excitants que, quoi qu’il se passe dans le futur, je serai été heureux d’avoir étudié le sujet à une époque où nous étions encore dans l’obscurité. Il était temps de débroussai­ller tout ce territoire moral

 ??  ??

Newspapers in French

Newspapers from France