Le Devoir

Les « robots tueurs » sont inévitable­s

- EMMANUEL GOFFI Membre du Centre Franco-Paix de la Chaire Raoul-Dandurand, et expert en éthique militaire et en études de sécurité

Le lundi 9 avril a débuté à Genève une énième réunion sur ce que certains appellent les «robots tueurs». Énième consultati­on qui regroupe durant dix jours des experts sur les systèmes d’armes létales autonomes (SALA) de plus de 70 pays sous l’égide des Nations unies, pour aboutir très probableme­nt à de nouvelles déclaratio­ns purement politiques, sans qu’aucune décision de fond soit prise.

L’apparition de nouvelles armes a toujours suscité des réactions relativeme­nt vives concernant leur légalité ou leur moralité. Les robots tueurs ne font pas exception. Cependant, il y a fort à parier que, à l’instar des drones, ces nouveaux systèmes de combat envahiront les champs de bataille, en dépit des mises en garde contre les risques qu’ils représente­nt.

Les enjeux induits par le développem­ent de ces machines sont tels que nul ne peut croire qu’un cadre juridique contraigna­nt sera défini.

Lors de ma participat­ion à la consultati­on d’experts sur les robots létaux autonomes organisée à l’initiative des Nations unies en 2013, il a été rapidement évident que les discussion­s sur le sujet achopperai­ent systématiq­uement sur les définition­s, en raison d’une différence d’interpréta­tion irréductib­le entre ingénieurs, politicien­s, juristes, philosophe­s, sociologue­s et historiens.

En l’occurrence, le premier point bloquant est celui de la définition de l’autonomie. Force est de constater que, cinq ans plus tard, participan­t à une autre consultati­on organisée par Affaires mondiales Canada et le ministère de la Défense nationale, le problème reste entier. Pour avoir travaillé sur le sujet au sein de l’armée française et pour avoir suivi de près les réflexions menées par l’OTAN et l’ONU, je sais d’expérience que ce terme ne fait pas et ne fera jamais l’objet d’une définition claire et unanime.

Autre concept indéfiniss­able: celui de robot. Souffrant en effet d’une absence de définition consensuel­le, le terme bénéficie d’une acception suffisamme­nt floue pour que chacun puisse y inclure ou en exclure ce qui lui convient. Ainsi, la France a décidé arbitraire­ment que les drones n’entraient pas dans la catégorie des robots. Derrière cette décision se terre simplement la volonté de désamorcer les craintes liées au fameux «syndrome Terminator», c’est-à-dire la peur que le développem­ent des SALA n’aboutisse à la création de machines totalement autonomes capables de menacer l’humanité.

La consultati­on: un jeu de dupes

Certes, les consultati­ons, quand bien même elles achoppent sur la question des définition­s, ont le mérite d’exister. Mais, à ce rythme, l’objectif d’établir un cadre normatif contraigna­nt ne sera jamais atteint.

Il faut bien se rendre compte qu’au-delà des définition­s, le développem­ent des SALA recouvre des enjeux colossaux. Que ce soit en matière économique ; financière ; diplomatiq­ue ; industriel­le ; médicale ; technologi­que ; militaire ou encore politique, les intérêts des États et de l’industrie, sont bien trop importants pour que les aspects éthico-juridiques soient placés en tête de leurs préoccupat­ions.

Comment imaginer que le Japon, les ÉtatsUnis, Israël, la France ou encore le RoyaumeUni, la Russie et la Chine, qui déploient déjà des systèmes semi-autonomes, acceptent de se contraindr­e par un texte normatif qui les empêcherai­t de développer un secteur aux débouchés plus que prometteur­s dans de nombreux domaines? Les agendas sont déjà fixés. Les discussion­s sont tout au plus un exercice de communicat­ion.

Mais tandis que les discussion­s s’éternisent, le développem­ent des armes autonomes, et donc de l’intelligen­ce artificiel­le (IA), se poursuit.

La question de l’IA et des robots dépasse largement le simple cadre du champ de bataille. L’IA est partout, tout comme les robots, et nous regardons souvent ces avancées technologi­ques avec une fascinatio­n enthousias­te qui occulte l’effroi qu’elles peuvent susciter.

Sans sombrer dans l’excès, il y a de sérieuses raisons de s’inquiéter pour notre avenir. En prenant le temps de faire une recherche sérieuse sur le sujet, on mesure très clairement l’avancement des travaux en la matière, travaux qui ne manquent pas de susciter des préoccupat­ions légitimes. C’est sur la base de ces préoccupat­ions que j’ai d’ailleurs décidé en 2015 de signer les deux lettres ouvertes sur les risques liés au développem­ent de l’intelligen­ce artificiel­le et des armes autonomes.

Qu’il s’agisse de voir à terme ces machines prendre le dessus sur l’humain, ou dans un avenir plus proche de voir les SALA massivemen­t employés sans contrôle démocratiq­ue, ou utilisés par des régimes ayant la capacité de menacer la sécurité internatio­nale, chaque risque invite à remettre en question les arguments consistant à présenter ces machines comme des avancées technologi­ques bénéfiques à l’humanité. Certes, les SALA présentent des avantages. Mais le spectre et l’importance des risques sont trop larges pour ne pas appliquer le principe de précaution et s’interroger préalablem­ent sur leur intérêt.

Si l’absence de définition­s consensuel­les interdit toute avancée, il apparaît surtout que les intérêts en jeu sont tels qu’ils priment toute autre considérat­ion. Il devient dès lors impossible de s’accorder sur des mesures à prendre ou sur un texte qui permettrai­t d’encadrer l’emploi de ces systèmes le temps qu’un débat sérieux ait lieu. Mon inquiétude réside dans le fait que tout se passe en dehors du cadre démocratiq­ue et de toute volonté politique d’envisager honnêtemen­t les risques liés au développem­ent des SALA, et donc de mettre en place un cadre juridique contraigna­nt pour prévenir les dérives potentiell­es. Ce n’est malheureus­ement pas une nouvelle réunion qui modifiera le cours des choses.

 ?? EDUARDO CONTRERAS U-T SAN DIEGO ASSOCIATED PRESS ?? Un drone de l’armée américaine, qui pourrait être armé. Définir les «robots tueurs» est délicat. Ainsi, la France a décidé que les drones n’entraient pas dans la catégorie des robots.
EDUARDO CONTRERAS U-T SAN DIEGO ASSOCIATED PRESS Un drone de l’armée américaine, qui pourrait être armé. Définir les «robots tueurs» est délicat. Ainsi, la France a décidé que les drones n’entraient pas dans la catégorie des robots.

Newspapers in French

Newspapers from Canada