« Quelle responsabilité pour les robots?»
L’avocat revient sur les enjeux juridiques de l’intelligence artificielle
Les robots bientôt l’objet d’une loi européenne ? C’est en tout cas l’une des propositions du rapport de l’eurodéputée Mady Delvaux adoptée le 12 janvier au Parlement européen. 20 Minutes a profité d’une conférence donnée par Arnaud Touati, associé fondateur du cabinet Alto Avocats, dédiée à l’intelligence artificielle et à son appropriation du langage naturel, pour solliciter son éclairage.
Quand un robot commet un dommage, est-il responsable ? Le rapport pose la question d’une « responsabilité civile des robots »...
Créer une personnalité juridique pour les robots présente un avantage majeur : la mise en place d’un régime d’assurance obligatoire, inspiré de celui des automobiles, qui permettra de garantir un dédommagement. La responsabilité de l’homme ne sera pas forcément écartée : plus le robot est sophistiqué, plus la responsabilité de son concepteur pourrait être engagée. Mais l’idée d’une responsabilité civile des robots pourrait créer une forme de déresponsabilisation de ceux qui conçoivent les robots et les algorithmes. L’intelligence artificielle peut toujours être rattachée à l’humain. Cette responsabilité ne règle donc pas la question de savoir vers quel humain se retourner. Le rapport préconise d’engager la responsabilité du concepteur de l’algorithme. Si un robot renverse une vieille dame dans la rue, quid de la responsabilité éventuelle du constructeur ? Les questions restent en suspens.
On ne peut pas punir un robot… Comment peut-on concrètement imaginer ses « droits et devoirs » ?
C’est là qu’on entre un peu dans la science-fiction…. En dotant les robots d’une personnalité juridique fictionnelle, on ouvre une boîte de Pandore. On les soumet à des critères qui ne sont pas forcément tous adaptés : une naissance et une mort, une identité propre, un état civil qui pourrait prendre la forme d’une immatriculation, et des droits et des devoirs. Techniquement, l’octroi d’une personnalité juridique au robot serait susceptible de lui permettre de soutenir une action en justice. Cela risquerait d’entraîner plus de difficultés que d’en résoudre. En matière de devoirs, le rapport se contente de mentionner comme unique devoir des robots celui de réparer tout dommage causé à un tiers.
Vous estimez que le rapport s’attarde trop peu sur la question de la protection des données…
J’estime qu’il y a une problématique considérable de protection des données qui accompagne l’arrivée des robots et des assistants personnels [capables de nous comprendre, de nous répondre ou d’anticiper nos attentes grâce à l’intelligence artificielle]. Quand vous faites entrer une borne Amazon Echo chez vous, vous lui donnez accès à l’intérieur de votre maison, à ce qui s’y dit, comme l’a récemment démontré le fait divers d’une borne témoin d’un meurtre. Un règlement européen a été récemment adopté sur le sujet de la collecte des données par les objets connectés, mais sa mise en oeuvre effective a été reportée à 2018. A mon sens, nous devrions exiger que les données collectées en Europe soient exclusivement stockées sur des serveurs européens pour plus de contrôle et de sécurité, à l’image de ce qui se fait en Russie.
Que pensez-vous du code de bonne conduite plaidé par le rapport pour s’assurer que les robots seront bien au service de l’homme ?
C’est une initiative louable, mais il faut voir si c’est un outil juridiquement contraignant pour les intervenants. Notons que les plus alarmistes sur l’IA (Bill Gates, Steve Wozniak…) sont ceux qui travaillent le plus dessus. Le Parlement se réveille enfin, et c’est une excellente nouvelle.