QUELLE GUERRE POUR L’INTELLIGENCE ARTIFICIELLE ? Joseph HENROTIN
Les débats de ces dix dernières années concernant les technologies militaires futures ont fait la part belle à la robotique, innervant des secteurs tels que l’ingénierie, la tactique ou encore l’éthique. Mais force est aussi de constater que depuis trois ans environ, l’attention se porte également de plus en plus sur l’intelligence artificielle (IA). Mais pour quel bénéfice dans les forces ?
Les progrès technologiques enregistrés de même que les nouvelles capacités informatiques autorisent aujourd’hui à s’interroger sur la pertinence de L’IA dans les forces militaires. Le thème est porteur, que ce soit du point de vue du débat académique ou encore de celui des budgets. Comme dans le domaine de la robotique cependant, il convient d’abord de prendre une distance critique avec l’objet et les débats, à au moins deux égards :
• d’une part, il semble nécessaire d’éviter toute forme de déterminisme : les débats de 2010 nous promettaient une robotisation triomphante, mais trois aspects ont insuffisamment été pris en considération. D’abord, la guerre reste une affaire politique – et donc intrinsèquement humaine. La nature du conflit n’ayant pas été changée par les moyens avec lesquels il est conduit, le robot est un bien un moyen au service d’une fin, politique et donc humaine. Ensuite, à l’instar de tout matériel militaire, les robots sont conçus et mis en oeuvre par des humains dont les actions et réactions ne sont pas nécessairement déterministes. Enfin, il faut empiriquement constater que la robotisation promise est, dans les faits, encore assez éloignée : L’US Army a, en fait, réduit le nombre de ses robots après un pic d’utilisation vers 2008-2009 et les flottes aériennes sont loin d’être uniquement composées de drones (1). Il convient donc d’être prudent afin d’éviter de transformer des débats importants en caricatures, ce qui vaut également pour la question de l’intelligence artificielle ;
• d’autre part, les débats sur les robots ont ceci de commun avec ceux portant sur L’IA qu’ils omettent fréquemment de définir leur objet : de quoi parle-t-on exactement ? D’un robot démineur télécommandé? D’un porteur d’arme lui aussi télécommandé et qui constitue ce que l’on qualifie dans les débats de «robot tueur»? Ou d’une machine apte à prendre elle-même la décision d’engager le feu ? La confusion, dommageable pour la qualité et la pertinence des travaux et débouchant sur un techno-folklore omettant d’aborder les vraies questions(2), risque de se reproduire dès lors qu’il est question D’IA.
Il convient d’être prudent afin d’éviter de transformer des débats importants en caricatures, ce qui vaut également pour la question de l’intelligence artificielle.
LES FONDAMENTAUX RESTENT VALABLES
Plutôt que de partir d’une base technologique, revenons aux fondamentaux : la notion
d’intelligence telle qu’utilisée en psychologie et définie par Piaget renvoie à la « faculté d’adaptation». Toute intelligence, humaine comme artificielle, n’est donc pas gage, en soi, de «la décision la plus adaptée» ou d’une «décision innovante ». Et, de facto, la notion d’intelligence artificielle est encore très relative : un système comme le chatbot Tay, conçu pour évoluer et apprendre sur Twitter, a vu son compte supprimé après qu’il eut adopté une rhétorique nazie en 24 heures. La logique actuellement retenue pour les systèmes les plus ambitieux renvoie en effet au deep learning et à leur capacité à apprendre à travers des «réseaux neuronaux» artificiels faisant interagir des capacités informatiques distribuées. De facto, le système n’est intelligent qu’en fonction de ses algorithmes de base et du milieu dans lequel il évolue. C’est en soi une limitation dès lors que l’on parle d’usage d’une IA dans le domaine militaire : quand juge-t-on qu’elle a atteint un degré de maturité opérationnelle suffisant pour remplir correctement les tâches qu’on lui demande ? Répondre à la question est d’autant plus difficile que le comportement des IA peut ne pas être celui attendu alors que les critères d’évaluation d’un soldat ou d’une unité sont formalisés. Lorsque Google a commencé à travailler sur une IA devant offrir des traductions plus pertinentes que le système qu’il utilisait alors, les ingénieurs se sont aperçus que le système inventait sa propre langue pour faciliter son travail(3). D’un point de vue opérationnel, c’est surprenant, mais efficient – du moins lorsque les réseaux permettent au processus de se réaliser (4) – ; mais une fois cela appliqué au domaine militaire, l’affaire peut devenir problématique. Qu’une stratégie donnée ne soit pas lisible pour un adversaire est un bienfait, mais qu’elle ne le soit pas pour nos stratèges est autrement plus problématique. La sur-intelligence potentielle des IA suscite ainsi des questions liées à leur utilisation dans le champ militaire. La RAND Corporation s’interrogeait ainsi sur l’usage des IA dans le domaine nucléaire pour constater que la dissuasion fonctionne aussi parce que ses opérateurs ne sont pas totalement rationnels. En conséquence, une IA performante et trop rationnelle pourrait être déstabilisante (5).
De facto, parler de « guerre » revient à évoquer l’incertitude, la friction et le « brouillard de la guerre » en tant que ses conditions structurelles premières. Tout le développement des forces armées depuis leur apparition dans l’antiquité peut être résumé comme la succession de tentatives plus ou moins heureuses permettant de rationaliser l’incertitude, de réduire les frictions et de percer le brouillard de la guerre. Dans ce processus, la planification, la discipline, les différentes formes d’innovation, les procédures forment une alchimie complexe. Or, des IA trop performantes ne feraient pas – comme toute technologie – qu’accroître le risque d’apparition de nouvelles causes de frictions. Elles pourraient également épaissir le brouillard de la guerre, allant donc dans le sens opposé de l’histoire militaire. À cet égard, le problème premier n’est déjà plus celui de la numérisation des forces, mais bien celui d’une logique d’évolution des logiciels se tenant quelque part entre leur capacité d’autoapprentissage et leur capacité à respecter des règles fondamentales.
Or il existe bien un risque que « L’IA mange le logiciel » – après que « les logiciels auront mangé le monde » (6) – et que les concepteurs finissent par s’affranchir des règles, qu’elles soient éthiques ou liées à l’efficience stratégique (7). Les logiques de deep learning sous-tendent, de facto, un affranchissement des règles liées à la conception des logiciels. De ce point de vue, il semble particulièrement urgent que les militaires reprennent le contrôle de la définition des technologies. La question est ancienne au regard de la part prise par le secteur civil (8) et elle anime notamment les débats sur la pertinence d’une DGA contrôlée par des ingénieurs de l’armement parfois déconnectés des utilisateurs militaires. Elle trouve un point d’application, comme tout programme militaire, dans la définition de cahiers des charges où l’important est autant l’exploitation d’un potentiel que sa maîtrise. Partant de là, qu’est-il possible d’envisager en matière d’applications de L’IA à l’armement terrestre, en sachant que toutes les possibilités en la matière n’ont sans doute pas encore été entrevues ?
Qu’une stratégie donnée ne soit pas lisible pour un adversaire est un bienfait, mais qu’elle ne le soit pas pour nos stratèges est autrement plus problématique. La sur-intelligence potentielle des IA suscite ainsi des questions liées à leur utilisation dans le champ militaire.
L’APPROCHE FONCTIONNELLE ET L’IA
On peut tenter d’appréhender les apports de L’IA suivant la distinction traditionnelle entre soutien, appui et combat. Ses premières applications pourraient ainsi concerner une foule de fonctions en soutien des forces. Le couplage des IA aux technologies d’affichage et aux réseaux pourrait ainsi avoir un impact important sur la manière de concevoir l’entraînement et la simulation, en offrant des « adversaires artificiels » ne reflétant pas ou peu nos propres modes de combat. En la matière, les premières applications existent déjà et s’appuient sur les systèmes qui permettent de battre les meilleurs joueurs d’échecs et,
surtout, de go. D’autres fonctionnalités en cours de développement pour le civil pourraient également offrir des avantages en matière de stabilisation et de renseignement. Ce serait typiquement le cas de systèmes de traduction automatique prenant en compte les spécificités langagières locales ou le contexte dans lequel une conversation est tenue.
Les IA pourraient également faire gagner un temps précieux en matière administrative – alors que les armées tendent à devenir de plus en plus procédurières en la matière – avec la rédaction automatique de courriers ou encore de comptes rendus, éventuellement retranscrits par les IA avec nettement plus d’exactitude que les systèmes de conversion actuels de la voix en texte. D’autres applications plus exotiques semblent également envisageables. La numérisation d’un grand nombre de revues, d’ouvrages ou de comptes rendus pourrait bouleverser la manière de faire de la recherche stratégique et en histoire militaire, en créant de gigantesques bases de données virtuelles dans lesquelles les IA pourraient établir des corrélations ou repérer des similarités. Les IA pourraient aussi jouer un rôle dans la conception des systèmes d’armes. D’un point de vue opérationnel ou éthique, ces applications ne semblent guère poser de problèmes.
L’usage de L’IA en appui ne semble a priori guère plus problématique. Le couplage entre réseaux, capteurs de plus en plus nombreux et systèmes informatiques pourrait offrir la capacité à repérer dans le « big data militairement pertinent» les informations utiles. L’IA serait ainsi la « clé d’or » permettant de tirer pleinement parti de la masse d’informations toujours plus importante arrivant aux forces. À ce stade, il ne s’agit pas encore d’analyse, mais de son travail préparatoire, en offrant la possibilité de créer des représentations extrêmement fines, et multispectrales, d’un environnement donné. Ces représentations, une fois diffusées aux combattants, laissent entrevoir des possibilités inouïes. On pourrait ainsi imaginer une section d’infanterie se déplaçant et voyant s’afficher sur ses casques à réalité augmentée le positionnement des troupes amies et adverses, mais aussi les groupements de population civile, les types de bâtiments (fonction, matériaux, présence de toxiques éventuels), les interprétations des perturbations du spectre électromagnétique, etc. L’ensemble serait rafraîchi au fur et à mesure de l’apport de nouveaux éléments – des informations retrouvées dans des ordinateurs adverses, par exemple. Corrélativement, les IA pourraient également offrir des avantages similaires pour le renseignement ou encore pour la planification. Elles pourraient aussi avoir une incidence sur les modalités de combat. L’usage D’IA assez simples permettrait de contrôler le déplacement des différents essaims de robots de soutien ou de reconnaissance susceptibles
L’IA serait la «clé d’or » permettant de tirer pleinement parti de la masse d’informations toujours plus importante arrivant aux forces. À ce stade, il ne s’agit pas encore d’analyse, mais de son travail préparatoire, en offrant la possibilité de créer des représentations extrêmement fines, et multispectrales, d’un environnement donné.
d’accompagner l’infanterie, lui permettant de se concentrer sur l’analyse des images, par exemple. On pourrait également imaginer que des IA intégrées aux systèmes d’armes – d’un véhicule ou d’un système FELIN, par exemple – puissent fournir en permanence les solutions de tir les plus adaptées en fonction des systèmes d’armes qu’elles servent et de leurs limitations/caractéristiques propres. Travailler de la sorte accroîtrait le rythme des opérations – mais imposerait une plus grande maîtrise. En cyberguerre, les IA laissent augurer la possibilité de systèmes autonomes de détection d’attaque et de leur neutralisation. Rien n’empêche, du moins en théorie, la génération de cyberarmes adaptées aux représailles, en fonction d’un paramètre de riposte équivalente, par exemple. Le système aurait pour lui une capacité autonome – libérant des ressources humaines pour d’autres tâches – et une capacité de codage/ conception potentiellement supérieure à celle d’un groupe d’humains. La vitesse serait également un atout de pareils systèmes, dont rien ne s’oppose à ce qu’ils soient utilisés sur les théâtres, à un niveau brigade ou inférieur. L’IA permettrait ainsi d’offrir la résilience et l’adaptation aux menaces promises – jusqu’ici, sans succès – par les tenants de la cyberguerre.
DES LIMITES BIEN RÉELLES
Reste aussi que de tels systèmes sont contraints par leur propre logique. Les rationalités actuelles, qui comptent sur des capacités distribuées, imposent de disposer de liaisons stables et d’une imposante capacité de calcul. Quel serait l’avantage d’une conscience situationnelle augmentée du combattant produite par une IA, mais qui ne serait pas en mesure de fonctionner ou de diffuser le produit de son travail ? On retrouve ici la problématique, très contemporaine, de la numérisation considérée comme acquise et capable de fonctionner, quelles que soient les circonstances. Or cette numérisation, comme cette IA, ne sont pas d’une grande utilité si les « tuyaux » sont coupés, brouillés ou si une IA adverse parvient à contaminer les processus. En 1973, des batteries d’artillerie égyptiennes ont été détruites par d’autres batteries du Caire parce que des opérateurs arabes israéliens sont entrés dans les réseaux de communication pour donner les ordres conduisant aux tirs fratricides. Ils ont aussi été capables de paralyser des unités égyptiennes en coupant leurs communications. Il faut ici rappeler que la guerre électronique – et cyberélectronique – devient un réel avantage comparatif pour la Russie ou la Chine qui, comprenant notre dépendance aux réseaux, investissent beaucoup. Ces réseaux n’ont donc rien d’acquis.
Au demeurant, ce talon d’achille est également un garde-fou. S’il est à craindre de voir émerger le même type de littérature catastrophiste autour des IA qu’autour des drones, la dépendance à «l’extérieur des zones de bataille» implique d’éviter de développer des systèmes de combat autonomes et fondés sur les IA autonomes et capables d’apprendre en temps réel. De ce point de vue, la dépendance aux capacités informatiques extérieures est telle que les IA actuelles ne sont pas autonomes. Tant que les capacités informatiques permettant de mettre en oeuvre ces IA ne peuvent pas être concentrées sur une plate-forme pour la rendre réellement indépendante d’un environnement par nature chaotique, le système auto-apprenant – et le capteur – le plus avancé à disposition des forces reste l’homme.
De tels systèmes sont contraints par leur propre logique. Les rationalités actuelles, qui comptent sur des capacités distribuées, imposent de disposer de liaisons stables et d’une imposante capacité de calcul. Quel serait l’avantage d’une conscience situationnelle augmentée du combattant produite par une IA, mais qui ne serait pas en mesure d e fonctionner ou de diffuser le produit de son travail ?
Notes
(1) Philippe Langloit, « Robotique terrestre : le grand désenchantement? », Défense & Sécurité Internationale, no 111, février 2015.
(2) Joseph Henrotin, « Les robots de combat vont-ils massacrer l’humanité (et les petits chats)? Sociologie d’un débat non informé », Défense & Sécurité Internationale, no 132, novembre-décembre 2017.
(3) Sam Wong, « Google Translate AI Invents its own Language to Translate With », New Scientist, 30 novembre 2016 (https://www.newscientist.com/article/2114748-googletranslate-ai-invents-its-own-language-to-translate-with/).
(4) La remarque n’a rien d’anodin dans un contexte de résurgence des capacités de guerre électronique et de leur couplage aux capacités cyber.
(5) Edward Geist et Andrew J. Lohn, How Might Artificial Intelligence Affect the Risk of Nuclear War?, RAND Corp, Santa Monica, avril 2018.
(6) Robert W. Button, « Artificial Intelligence and the Military », Real Clear Defense, 7 septembre 2017.
(7) Lesquelles sont, dans les États occidentaux, concrètement confondues : on n’imagine pas de processus politique complet ayant impliqué l’emploi de la force militaire sans que ce dernier ait été contrôlé par le politique de manière à produire «la meilleure paix possible». Cette rationalité s’oppose à celle de l’efficacité militaire, s’entendant sur le plan tactique et à court terme.
(8) Avec la proposition d’options ne répondant pas nécessairement aux impératifs d’efficience stratégique. Typiquement, c’est le cas pour le programme de guerre biologique proposé contre le Japon durant la Deuxième Guerre mondiale.