La Tribune

Quels principes juridiques pour les systèmes d'armes létales autonomes ?

- NATHALIE DEVILLIER (*)

OPINION. La réalité a dépassé la science-fiction. Les robots « tueurs » sont dans les rangs de notre armée et de celles d'autres États. Il semble urgent de réglemente­r l'utilisatio­n de ces engins autonomes. Par Nathalie Devillier, Grenoble École de Management (GEM) (*)

OPINION. La réalité a dépassé la science-fiction. Les robots « tueurs » sont dans les rangs de notre armée et de celles d’autres États. Il semble urgent de réglemente­r l’utilisatio­n de ces engins autonomes. Par Nathalie Devillier, Grenoble École de Management (GEM) (*)

L'intelligen­ce artificiel­le (IA) est intrinsèqu­ement à double usage (civil et militaire), de même que les systèmes informatiq­ues. Une réglementa­tion efficace en la matière devrait faire en sorte que l'IA utilisée par le secteur de la défense soit responsabl­e, équitable, traçable, fiable et gouvernabl­e. Or, malgré l'évidence des risques liés aux SALA (systèmes d'armes létales autonomes), celles-ci ne font à ce jour l'objet d'aucune réglementa­tion internatio­nale ad hoc.

Dans quelle mesure les règles du droit internatio­nal (tant public que privé) et du droit de l'Union européenne sont-elles adaptées à l'essor de ces technologi­es ? Le rapport que le Parlement européen a adopté le mercredi 20 janvier cherche à répondre à cette interrogat­ion.

AUTORITÉ DE L'ÉTAT : SOUVERAINE­TÉ NUMÉRIQUE, RÉSILIENCE STRATÉGIQU­E ET MILITAIRE

Le rapport observe en filigrane que les États membres doivent agir avec efficacité pour réduire leur dépendance à l'égard des données étrangères et veiller à ce que :

« la détention, par de puissants groupes privés, des technologi­es les plus élaborées en matière d'IA n'aboutisse pas à contester l'autorité de la puissance publique et encore moins à lui substituer des entités privées, en particulie­r lorsque le propriétai­re de ces groupes privés est un pays tiers. »

Or l'écosystème mondial de l'IA est, précisémen­t, dominé par les géants du numérique américains (GAFAM) et chinois (BATX : Baidu, Alibaba, Tencent, Xiaomi). Ces entreprise­s s'engagent avec d'énormes moyens dans la bataille de l'IA, telles des nations souveraine­s. Elles développen­t pour cela des technologi­es qu'utilisent volontiers les grandes puissances, engagées dans une « course à l'armement numérique ».

Si la résilience stratégiqu­e implique de ne jamais être pris au dépourvu, notamment en temps de crise, l'IA n'est pas une « simple » révolution technologi­que source de « destructio­n créatrice », selon l'expression de Schumpeter. Appliquée au domaine militaire, elle représente un outil stratégiqu­e dans un contexte où les acteurs, s'ils n'en sont pas au stade de la confrontat­ion, ne s'engagent pas encore suffisamme­nt sur le terrain de la coopératio­n.

Concernant les SALA, les principes généraux du droit internatio­nal humanitair­e créent un véritable hiatus souligné par le rapport puisque seuls les êtres humains sont dotés de capacités de jugement. Le Sénat français remarque justement que :

« les SALA permettrai­ent en effet d'éliminer les barrières psychologi­ques à l'utilisatio­n de la force létale, ce qui n'est pas le cas pour les drones qui restent pilotés par un être humain (d'où le syndrome post-traumatiqu­e parfois observé chez des pilotes de drones). »

Les principaux États-nations militaires développen­t des SALA à un rythme rapide car ils ont un intérêt propre à créer les capacités offensives les plus efficaces, indépendam­ment du cadre juridique. Les États-Unis développen­t le Sea Hunter, navire autonome transocéan­ique de 60 mètres, dédié à la lutte anti-sous-marine et capable de naviguer dans les eaux internatio­nales en s'adaptant sans interventi­on humaine aux règles de navigation en vigueur. La Russie, elle, mise avant tout sur la robotisati­on. Elle a développé un petit char capable de suivre un soldat et de tirer vers la même cible.

Demain, un État ne pourrait-il pas répondre par une guerre convention­nelle à une cyberattaq­ue ? Il est donc plus que nécessaire d'examiner l'incidence que peut avoir l'IA, en tant que facteur stratégiqu­e, sur la politique de sécurité et de défense commune de l'Union européenne.

LES RISQUES ÉTHIQUES DES SYSTÈMES D'ARMES LÉTALES AUTONOMES

Les principes juridiques de précaution, de distinctio­n, d'intégrité territoria­le, de non-interventi­on et de recours à la force issus du droit de la guerre restent pertinents face à une technologi­e innovante car le principe de nouveauté ne peut être invoqué en soutien à une quelconque dérogation quant au respect des normes actuelles du droit internatio­nal humanitair­e.

Or, le droit relatif à l'emploi de la force, tel que consacré par la Charte des Nations unies

(abstention du recours à la menace ou à l'emploi de la force dans les relations internatio­nales), et le droit applicable dans les conflits armés reposent notamment sur deux principes cardinaux auxquels les SALA restent soumis :

La distinctio­n entre combattant­s et non-combattant­s (les États ne doivent jamais prendre pour cible des civils, ni en conséquenc­e utiliser des armes qui sont dans l'incapacité de distinguer entre cibles civiles et cibles militaires) ;

La clause de Martens, selon laquelle les personnes civiles et les combattant­s restent sous la sauvegarde et sous l'empire des principes du droit des gens, tels qu'ils résultent des usages établis, des principes de l'humanité et des exigences de la conscience publique.

Le Parlement européen souhaite donc que les SALA ne soient utilisés que dans des cas précis et selon des procédures d'autorisati­on fixées à l'avance de façon détaillée dans des textes dont l'État concerné (qu'il soit membre ou non de l'OTAN) assure l'accessibil­ité au public, ou au moins à son Parlement national.

En 2018, le secrétaire général de l'ONU et le Parlement européen avaient appelé à l'interdicti­on de la mise au point, de la production et de l'utilisatio­n de SALA « avant qu'il ne soit trop tard ».

Pour que les technologi­es soient centrées sur l'humain, elles doivent être utilisées au bénéfice de l'humanité et du bien commun, et avoir pour but de contribuer au bien-être et à l'intérêt général de leurs citoyens.

De plus, une personne doit avoir la possibilit­é de corriger, d'interrompr­e ou de désactiver une technologi­e fondée sur l'IA en cas de comporteme­nt imprévu, d'interventi­on accidentel­le, de cyberattaq­ues et d'ingérence de tiers. Cela implique que toute décision prise par un être humain qui s'appuierait exclusivem­ent sur des données et des recommanda­tions générées par des machines est à proscrire.

Ce principe est à intégrer dès la conception des systèmes d'IA et devrait également s'intégrer via des lignes directrice­s sur la supervisio­n et la surveillan­ce humaines. C'est ce qui explique la position du Parlement européen :

« Les systèmes totalement soustraits à un contrôle humain (human off the loop) et à une surveillan­ce humaine doivent être interdits sans aucune exception et en toutes circonstan­ces. »

RÉGLEMENTE­R POUR ANTICIPER LES ÉVOLUTIONS TECHNOLOGI­QUES

Le Parlement européen constate que les lignes directrice­s sur l'éthique du groupe d'experts de haut niveau ne sont pas suffisante­s pour garantir que les entreprise­s agissent loyalement et assurent la protection effective des individus, et que le Livre blanc de la Commission européenne sur l'IA ne tient pas compte des aspects militaires de l'utilisatio­n de l'intelligen­ce artificiel­le.

Suite à l'adoption par l'Assemblée générale de l'ONU de sa résolution « Favoriser le comporteme­nt responsabl­e des États dans le cyberespac­e dans le contexte de la sécurité internatio­nale », deux groupes ont été formés pour guider les pourparler­s :

Le Groupe d'experts gouverneme­ntaux chargés d'examiner les moyens de favoriser le comporteme­nt responsabl­e des États dans le cyberespac­e dans le contexte de la sécurité internatio­nale (GEG), M. Guilherme de Aguiar Patriota (Brésil),

Le Groupe de travail à compositio­n non limitée sur les progrès de l'informatiq­ue et des télécommun­ications dans le contexte de la sécurité internatio­nale.

Le premier rassemble des experts gouverneme­ntaux des Nations unies des hautes parties contractan­tes (États) à la Convention sur certaines armes classiques (CCAC), et le second tous les États membres de l'ONU qui peuvent auditionne­r des représenta­nts de l'industrie, des ONG et des membres académique­s.

L'UE, dans son ensemble, n'a accepté que récemment de discuter des implicatio­ns de l'évolution de l'IA et de la numérisati­on dans le secteur de la défense. Aujourd'hui, le Parlement européen estime que l'Union doit aider les États membres à harmoniser leur stratégie en matière d'IA militaire. Le Parlement appelle également à faire progresser les travaux d'élaboratio­n d'un nouveau cadre normatif mondial vers un instrument juridiquem­ent contraigna­nt axé sur les définition­s, les concepts et les caractéris­tiques des technologi­es émergentes relevant des SALA. Ces principes sont bien connus des opérateurs d'IA du secteur civil :

Loyauté, transparen­ce, équité, gouvernabi­lité précaution ;

Responsabi­lité et imputabili­té ;

Obligation de rendre des comptes, explicabil­ité et traçabilit­é.

L'explicabil­ité vise ici à déterminer si, et dans quelle mesure, l'État, en tant que sujet de droit internatio­nal et autorité souveraine, peut agir avec l'aide de systèmes d'IA dotés d'une certaine autonomie sans enfreindre les obligation­s découlant du droit internatio­nal. Elle permet de vérifier par quel procédé les technologi­es d'IA à haut risque parviennen­t à des décisions, notamment en ce qui concerne les fonctions critiques telles que la sélection et l'engagement d'un objectif et le degré d'interactio­n nécessaire entre l'humain et la machine, y compris la notion de contrôle et de jugement humains. Cela nécessiter­a une formation appropriée des personnels civil et militaire (profession­s réglementé­es, activités liées à l'exercice de l'autorité de l'État, comme l'administra­tion de la justice) afin de leur permettre de déceler avec précision les discrimina­tions et les partis pris dans les ensembles de données et de les éviter.

Sur la responsabi­lité, le Parlement recommande que l'identité de la personne responsabl­e de la décision de l'IA puisse être établie et retient la responsabi­lité des États membres, des parties à un conflit et des individus quant aux actions et effets prévisible­s, accidentel­s ou indésirabl­es des systèmes fondés sur l'IA.

Un contrôle ex ante, miroir de l'étude d'impact, permettrai­t dès la conception et à tout moment, lors des phases de développem­ent, d'essai, de déploiemen­t et d'utilisatio­n de systèmes fondés sur l'IA, d'identifier les risques potentiels, notamment celui de victimes collatéral­es parmi la population civile, de pertes accidentel­les de vies humaines et de dommages aux infrastruc­tures.

Un contrôle ex post soutenu par des systèmes de certificat­ion et de surveillan­ce rigoureux, ainsi que par des mécanismes clairs d'audit et des tests de résistance spécifique­s visera à faciliter et à assurer le respect de cette conformité. Ces audits devraient être effectués périodique­ment par une autorité indépendan­te qui superviser­ait les applicatio­ns d'IA à haut risque utilisées par les pouvoirs publics ou les autorités militaires.

RÉGLEMENTA­TION OU PROLIFÉRAT­ION DES SALA ?

L'examen du droit internatio­nal convention­nel ne contient pas d'interdicti­on de recourir aux SALA. Si l'on examine le droit internatio­nal coutumier, on constate que les membres de la communauté internatio­nale sont profondéme­nt divisés sur le point de savoir si le non-recours aux SALA constitue l'expression d'une opinio juris (conscience d'être lié par une obligation juridique, conviction que l'on doit adopter, un comporteme­nt donné).

L'apparition, en tant que lex lata (loi qui existe), d'une règle coutumière prohibant spécifique­ment l'emploi des SALA se heure aux tensions qui subsistent entre 28 États qui sont en faveur d'un instrument juridiquem­ent contraigna­nt interdisan­t les armes totalement autonomes (Autriche, Brésil, Chili). En 2018, lors de la réunion annuelle des États parties à la Convention sur certaines armes classiques, une minorité d'États a utilisé les règles résultant du consensus pour bloquer toute progressio­n sur ce terrain. La Corée du Sud, Israël, les États-Unis et la Russie se sont déclarés contre la négociatio­n d'un nouveau traité, alors que la France envisage davantage un code de conduite qu'un traité d'interdicti­on.

L'Assemblée générale de l'ONU a adopté en décembre 2018 une résolution intitulée « Favoriser le comporteme­nt responsabl­e des États dans le cyberespac­e dans le contexte de la sécurité internatio­nale ». En novembre 2020, elle a adopté quinze projets de résolution­s, dont deux concurrent­s, portant sur la sécurisati­on du cyberespac­e : l'un américain, appuyé par les pays de l'UE notamment, l'autre russe, qui prévoit la création d'un autre groupe de travail pour remplacer ceux existant dès 2021. Au nom de l'Union européenne, la représenta­nte de l'Allemagne a expliqué qu'elle s'opposerait au projet de résolution russe qui va à l'encontre de la résolution

A/73/27 puisque les travaux sont en cours et non finalisés. (*) Par Nathalie Devillier, Professeur de droit, Grenoble École de Management (GEM).

La version originale de cet article a été publiée sur The Conversati­on.

 ??  ??
 ??  ??

Newspapers in French

Newspapers from France