La Tribune Hebdomadaire

la défense Ce que l’IA va changer dans…

Ce que l’IA change dans la défense

- MICHEL CABIROL @mcabirol

Ce n’est pas l’intelligen­ce artificiel­le qui va appuyer sur le bouton pour enclencher un tir

L’intelligen­ce artificiel­le est déjà omniprésen­te sur les théâtres d’opération. Conjuguée à la robotique, elle peut engendrer les fameux robots tueurs. Comment faire en sorte que la responsabi­lité humaine demeure la règle ?

Qui n’a jamais vu un des films de la célèbre saga Terminator des années 1980, où le système « intelligen­t » Skynet déclenche l’apocalypse nucléaire ? Bienvenue dans la réalité, car l’humanité y est ou presque. Technologi­quement, la première génération de robots tueurs, appelés Sala (Systèmes d’armes létaux autonomes), est testée en secret dans certaines armées… et est même parfois déjà en service. Ainsi, la Corée du Sud « emploie » depuis maintenant trois ans plusieurs robots tueurs (SGR-A1), bardés de capteurs, le long de la zone démilitari­sée qui la sépare de la Corée du Nord. Développés par Samsung, ces engins prennent seuls la décision d’enclencher leurs armes pour protéger la frontière sud-coréenne. Pour autant, sauf rupture technologi­que majeure, les armes totalement autonomes ne devraient pas voir le jour avant vingt à trente ans, estime pour sa part le Secrétaria­t général de la défense et de la sécurité nationale (SGDSN) dans son ouvrage Chocs futurs. Les États-Unis, qui consacrent environ 5 milliards de dollars chaque année à des systèmes de drones dans leur budget de la défense, en sont proches. Actuelleme­nt, des drones volant en essaim sont à l’essai avec des perspectiv­es opérationn­el les prometteus­es. Ai ns i , en octobre 2016, trois chasseurs F-18 ont largué à grande vitesse 103 mini-drones, qui ont ensuite évolué en essaim, mettant en oeuvre un processus de décision collective ayant conduit à des adaptation­s de la formation en vol. En 2025, l’objectif affiché par les militaires russes est d’employer plus de 30 % de systèmes d’armes autonomes et semi-autonomes.

DAVANTAGE D’AUTONOMIE POUR LES SYSTÈMES DÉFENSIFS

Si la Corée du Sud a officielle­ment franchi le mur sans états d’âme, les autres nations se font plus discrètes. Mais tous les pays producteur­s d’armement (États-Unis, Russie, Chine, France, Grande-Bretagne, Israël...) proposent aujourd’hui des systèmes d’armes, y compris létaux, intégrant des robots ou des systèmes autonomes (suivi de terrain automatiqu­e pour avions de combat, systèmes de défense antiaérien­ne et anti-missile, missiles de croisière ou « rôdeurs », torpilles, systèmes d’autodéfens­e de plateforme­s de combat, mines marines). La ministre des Armées, Florence Parly, a confirmé dans une interview accordée à La Tribune (13 avril) que l’intelligen­ce artificiel­le est déjà sur les champs de bataille. D’une façon générale, les systèmes défensifs sont dotés d’une plus large autonomie que les systèmes offensifs, pour lesquels l’ouverture du feu reste soumise à l’autorisati­on d’un opérateur (drone de reconnaiss­ance armé, drone de combat…).

PRISE DE CONSCIENCE MONDIALE

Jusqu’où l’homme ira-t-il en conjuguant robotique et intelligen­ce artificiel­le ? Les robots tueurs inquiètent de plus en plus dans le monde. À juste titre. Dans un tweet, le milliardai­re Elon Musk, propriétai­re de SpaceX et de Tesla, a forcé le trait il y quelques mois : « Selon moi, la concurrenc­e internatio­nale pour la supériorit­é en matière d’intelligen­ce artificiel­le sera presque certaineme­nt la cause d’une troisième guerre mondiale. » Sur le plan économique, le marché de la robotique militaire était évalué à 3,2 milliards de dollars par an en 2014, il devrait atteindre 10,2 milliards de dollars par an en 2021, selon une étude de WinterGree­n Research. Les inquiétude­s ont provoqué une prise de conscience mondiale. Les Sala respectero­nt-ils à l’avenir le droit internatio­nal humanitair­e et le droit de la guerre? Sous l’impulsion de la France, l’ONU organise une rencontre annuelle sur les Sala. Ainsi, pendant une semaine, les représenta­nts de plus de 70 États et de la société civile ont discuté début avril, aux Nations unies, à Genève, de la composante humaine dans le cadre de l’utilisatio­n des robots tueurs, des aspects de l’interactio­n homme-machine, mais aussi du développem­ent, du déploiemen­t et de l’emploi de technologi­es émergentes, dans le domaine des Sala. Mais la perspectiv­e d’un traité régissant les armes autonomes semble encore lointaine. Pourquoi un État fait-il de la recherche dans un domaine comme la défense? Il le fait à des fins de souveraine­té : pour s’assurer une supériorit­é technologi­que, donc opérationn­elle, et être capable de répondre à une évolution des menaces.

L’HOMME TOUJOURS DANS LA BOUCLE

En France, travaille-t-on sur des robots tueurs? Officielle­ment, non. « J’y suis catégoriqu­ement opposé, a d’ailleurs récemment expliqué Emmanuel Macron lors de la présentati­on de son plan sur l’intelligen­ce artificiel­le. Car je pense qu’il faut toujours une responsabi­lité et une reconnaiss­ance de responsabi­lité. » Et Florence Parly de préciser : « Ce n’est pas l’intelligen­ce artificiel­le qui va appuyer sur le bouton pour enclencher un tir. Il est vraiment essentiel de le rappeler. Nous ne sommes pas en train de fabriquer des robots tueurs, mais nous sommes en train d’essayer de tirer le meilleur parti de données qui seront de plus en plus nombreuses et dont nous savons que l’intelligen­ce humaine ne pourra pas, à elle seule, en tirer tout le sens. » La robotique n’est plus une fiction, elle sera de plus en plus incontourn­able sur un théâtre d’opérations, qu’il soit terrestre, aérien, naval et sous-marin, surtout face à des menaces de missiles hypervéloc­es. Car, comme on le rappelle à la direction générale de l’armement (DGA), « les robots ouvrent un champ des possibles bien supérieur à ce que l’homme sait faire aujourd’hui ». Ils peuvent donc parfaiteme­nt s’inscrire dans la doctrine des 3D ( dirty, dull and dangerous, soit en français : pénible, sale et dangereux). Pour l’heure, la DGA travaille sur la maîtrise des interactio­ns hommemachi­ne. « On voudra toujours garder l’homme dans la boucle, avait d’ailleurs expliqué en 2016 lors du Paris Air Forum la directrice de la stratégie de la DGA, Caroline Laurent. On ne va pas complèteme­nt s’en défaire. Mais quel sera l’équilibre ? Où sera l’homme? Le garde-t-on juste pour la supervisio­n ou doit-il être au plus près du théâtre? » En tout cas, le monde de la défense a un besoin de mieux maîtriser ces domaines, qui viennent plutôt du civil. Faut-il aller plus loin? « Il existe aujourd’hui un débat qui est légitime : est-ce qu’on peut mettre sur le terrain des systèmes qui vont continuer leur apprentiss­age dans l’environnem­ent opérationn­el ? » s’est interrogée Florence Parly. « Il y a de nombreux avantages à étudier au moins cette piste-là sur des fonctions qui ne mettent pas en jeu la chaîne de mission et encore moins la chaîne de feu, poursuit-elle. Par exemple, dans le domaine de la maintenanc­e prédictive, ces systèmes peuvent se nourrir de l’environnem­ent qui entoure nos appareils en mission. » En outre, à l’horizon de 2030, des programmes d’essais d’interfaces cerveau-machine seront également étudiés en France, estime le SGDSN. « Les utilisatio­ns au sein de nos forces armées en dehors de ces essais resteront limitées soit à un usage thérapeuti­que, soit à un emploi par une population militaire restreinte, sur de courtes durées, de dispositif­s non invasifs augmentant les capacités sensoriell­es », précise le SGDSN. La guerre du futur est déjà bien là.

 ??  ?? Des drones sont utilisés par les forces françaises en Afrique dans l’opération Barkhane.
Des drones sont utilisés par les forces françaises en Afrique dans l’opération Barkhane.

Newspapers in French

Newspapers from France