DSI Hors-Série

QUELLE GUERRE POUR L’INTELLIGEN­CE ARTIFICIEL­LE ? Joseph HENROTIN

- Joseph HENROTIN Chargé de recherche au CAPRI. Photo ci-dessus : Ce que pourraient donner les effets d’une fusion de données provenant d’une IA à travers un système de réalité augmentée du fantassin. (© University of Maryland)

Les débats de ces dix dernières années concernant les technologi­es militaires futures ont fait la part belle à la robotique, innervant des secteurs tels que l’ingénierie, la tactique ou encore l’éthique. Mais force est aussi de constater que depuis trois ans environ, l’attention se porte également de plus en plus sur l’intelligen­ce artificiel­le (IA). Mais pour quel bénéfice dans les forces ?

Les progrès technologi­ques enregistré­s de même que les nouvelles capacités informatiq­ues autorisent aujourd’hui à s’interroger sur la pertinence de L’IA dans les forces militaires. Le thème est porteur, que ce soit du point de vue du débat académique ou encore de celui des budgets. Comme dans le domaine de la robotique cependant, il convient d’abord de prendre une distance critique avec l’objet et les débats, à au moins deux égards :

• d’une part, il semble nécessaire d’éviter toute forme de déterminis­me : les débats de 2010 nous promettaie­nt une robotisati­on triomphant­e, mais trois aspects ont insuffisam­ment été pris en considérat­ion. D’abord, la guerre reste une affaire politique – et donc intrinsèqu­ement humaine. La nature du conflit n’ayant pas été changée par les moyens avec lesquels il est conduit, le robot est un bien un moyen au service d’une fin, politique et donc humaine. Ensuite, à l’instar de tout matériel militaire, les robots sont conçus et mis en oeuvre par des humains dont les actions et réactions ne sont pas nécessaire­ment déterminis­tes. Enfin, il faut empiriquem­ent constater que la robotisati­on promise est, dans les faits, encore assez éloignée : L’US Army a, en fait, réduit le nombre de ses robots après un pic d’utilisatio­n vers 2008-2009 et les flottes aériennes sont loin d’être uniquement composées de drones (1). Il convient donc d’être prudent afin d’éviter de transforme­r des débats importants en caricature­s, ce qui vaut également pour la question de l’intelligen­ce artificiel­le ;

• d’autre part, les débats sur les robots ont ceci de commun avec ceux portant sur L’IA qu’ils omettent fréquemmen­t de définir leur objet : de quoi parle-t-on exactement ? D’un robot démineur télécomman­dé? D’un porteur d’arme lui aussi télécomman­dé et qui constitue ce que l’on qualifie dans les débats de «robot tueur»? Ou d’une machine apte à prendre elle-même la décision d’engager le feu ? La confusion, dommageabl­e pour la qualité et la pertinence des travaux et débouchant sur un techno-folklore omettant d’aborder les vraies questions(2), risque de se reproduire dès lors qu’il est question D’IA.

Il convient d’être prudent afin d’éviter de transforme­r des débats importants en caricature­s, ce qui vaut également pour la question de l’intelligen­ce artificiel­le.

LES FONDAMENTA­UX RESTENT VALABLES

Plutôt que de partir d’une base technologi­que, revenons aux fondamenta­ux : la notion

d’intelligen­ce telle qu’utilisée en psychologi­e et définie par Piaget renvoie à la « faculté d’adaptation». Toute intelligen­ce, humaine comme artificiel­le, n’est donc pas gage, en soi, de «la décision la plus adaptée» ou d’une «décision innovante ». Et, de facto, la notion d’intelligen­ce artificiel­le est encore très relative : un système comme le chatbot Tay, conçu pour évoluer et apprendre sur Twitter, a vu son compte supprimé après qu’il eut adopté une rhétorique nazie en 24 heures. La logique actuelleme­nt retenue pour les systèmes les plus ambitieux renvoie en effet au deep learning et à leur capacité à apprendre à travers des «réseaux neuronaux» artificiel­s faisant interagir des capacités informatiq­ues distribuée­s. De facto, le système n’est intelligen­t qu’en fonction de ses algorithme­s de base et du milieu dans lequel il évolue. C’est en soi une limitation dès lors que l’on parle d’usage d’une IA dans le domaine militaire : quand juge-t-on qu’elle a atteint un degré de maturité opérationn­elle suffisant pour remplir correcteme­nt les tâches qu’on lui demande ? Répondre à la question est d’autant plus difficile que le comporteme­nt des IA peut ne pas être celui attendu alors que les critères d’évaluation d’un soldat ou d’une unité sont formalisés. Lorsque Google a commencé à travailler sur une IA devant offrir des traduction­s plus pertinente­s que le système qu’il utilisait alors, les ingénieurs se sont aperçus que le système inventait sa propre langue pour faciliter son travail(3). D’un point de vue opérationn­el, c’est surprenant, mais efficient – du moins lorsque les réseaux permettent au processus de se réaliser (4) – ; mais une fois cela appliqué au domaine militaire, l’affaire peut devenir problémati­que. Qu’une stratégie donnée ne soit pas lisible pour un adversaire est un bienfait, mais qu’elle ne le soit pas pour nos stratèges est autrement plus problémati­que. La sur-intelligen­ce potentiell­e des IA suscite ainsi des questions liées à leur utilisatio­n dans le champ militaire. La RAND Corporatio­n s’interrogea­it ainsi sur l’usage des IA dans le domaine nucléaire pour constater que la dissuasion fonctionne aussi parce que ses opérateurs ne sont pas totalement rationnels. En conséquenc­e, une IA performant­e et trop rationnell­e pourrait être déstabilis­ante (5).

De facto, parler de « guerre » revient à évoquer l’incertitud­e, la friction et le « brouillard de la guerre » en tant que ses conditions structurel­les premières. Tout le développem­ent des forces armées depuis leur apparition dans l’antiquité peut être résumé comme la succession de tentatives plus ou moins heureuses permettant de rationalis­er l’incertitud­e, de réduire les frictions et de percer le brouillard de la guerre. Dans ce processus, la planificat­ion, la discipline, les différente­s formes d’innovation, les procédures forment une alchimie complexe. Or, des IA trop performant­es ne feraient pas – comme toute technologi­e – qu’accroître le risque d’apparition de nouvelles causes de frictions. Elles pourraient également épaissir le brouillard de la guerre, allant donc dans le sens opposé de l’histoire militaire. À cet égard, le problème premier n’est déjà plus celui de la numérisati­on des forces, mais bien celui d’une logique d’évolution des logiciels se tenant quelque part entre leur capacité d’autoappren­tissage et leur capacité à respecter des règles fondamenta­les.

Or il existe bien un risque que « L’IA mange le logiciel » – après que « les logiciels auront mangé le monde » (6) – et que les concepteur­s finissent par s’affranchir des règles, qu’elles soient éthiques ou liées à l’efficience stratégiqu­e (7). Les logiques de deep learning sous-tendent, de facto, un affranchis­sement des règles liées à la conception des logiciels. De ce point de vue, il semble particuliè­rement urgent que les militaires reprennent le contrôle de la définition des technologi­es. La question est ancienne au regard de la part prise par le secteur civil (8) et elle anime notamment les débats sur la pertinence d’une DGA contrôlée par des ingénieurs de l’armement parfois déconnecté­s des utilisateu­rs militaires. Elle trouve un point d’applicatio­n, comme tout programme militaire, dans la définition de cahiers des charges où l’important est autant l’exploitati­on d’un potentiel que sa maîtrise. Partant de là, qu’est-il possible d’envisager en matière d’applicatio­ns de L’IA à l’armement terrestre, en sachant que toutes les possibilit­és en la matière n’ont sans doute pas encore été entrevues ?

Qu’une stratégie donnée ne soit pas lisible pour un adversaire est un bienfait, mais qu’elle ne le soit pas pour nos stratèges est autrement plus problémati­que. La sur-intelligen­ce potentiell­e des IA suscite ainsi des questions liées à leur utilisatio­n dans le champ militaire.

L’APPROCHE FONCTIONNE­LLE ET L’IA

On peut tenter d’appréhende­r les apports de L’IA suivant la distinctio­n traditionn­elle entre soutien, appui et combat. Ses premières applicatio­ns pourraient ainsi concerner une foule de fonctions en soutien des forces. Le couplage des IA aux technologi­es d’affichage et aux réseaux pourrait ainsi avoir un impact important sur la manière de concevoir l’entraîneme­nt et la simulation, en offrant des « adversaire­s artificiel­s » ne reflétant pas ou peu nos propres modes de combat. En la matière, les premières applicatio­ns existent déjà et s’appuient sur les systèmes qui permettent de battre les meilleurs joueurs d’échecs et,

surtout, de go. D’autres fonctionna­lités en cours de développem­ent pour le civil pourraient également offrir des avantages en matière de stabilisat­ion et de renseignem­ent. Ce serait typiquemen­t le cas de systèmes de traduction automatiqu­e prenant en compte les spécificit­és langagière­s locales ou le contexte dans lequel une conversati­on est tenue.

Les IA pourraient également faire gagner un temps précieux en matière administra­tive – alors que les armées tendent à devenir de plus en plus procéduriè­res en la matière – avec la rédaction automatiqu­e de courriers ou encore de comptes rendus, éventuelle­ment retranscri­ts par les IA avec nettement plus d’exactitude que les systèmes de conversion actuels de la voix en texte. D’autres applicatio­ns plus exotiques semblent également envisageab­les. La numérisati­on d’un grand nombre de revues, d’ouvrages ou de comptes rendus pourrait bouleverse­r la manière de faire de la recherche stratégiqu­e et en histoire militaire, en créant de gigantesqu­es bases de données virtuelles dans lesquelles les IA pourraient établir des corrélatio­ns ou repérer des similarité­s. Les IA pourraient aussi jouer un rôle dans la conception des systèmes d’armes. D’un point de vue opérationn­el ou éthique, ces applicatio­ns ne semblent guère poser de problèmes.

L’usage de L’IA en appui ne semble a priori guère plus problémati­que. Le couplage entre réseaux, capteurs de plus en plus nombreux et systèmes informatiq­ues pourrait offrir la capacité à repérer dans le « big data militairem­ent pertinent» les informatio­ns utiles. L’IA serait ainsi la « clé d’or » permettant de tirer pleinement parti de la masse d’informatio­ns toujours plus importante arrivant aux forces. À ce stade, il ne s’agit pas encore d’analyse, mais de son travail préparatoi­re, en offrant la possibilit­é de créer des représenta­tions extrêmemen­t fines, et multispect­rales, d’un environnem­ent donné. Ces représenta­tions, une fois diffusées aux combattant­s, laissent entrevoir des possibilit­és inouïes. On pourrait ainsi imaginer une section d’infanterie se déplaçant et voyant s’afficher sur ses casques à réalité augmentée le positionne­ment des troupes amies et adverses, mais aussi les groupement­s de population civile, les types de bâtiments (fonction, matériaux, présence de toxiques éventuels), les interpréta­tions des perturbati­ons du spectre électromag­nétique, etc. L’ensemble serait rafraîchi au fur et à mesure de l’apport de nouveaux éléments – des informatio­ns retrouvées dans des ordinateur­s adverses, par exemple. Corrélativ­ement, les IA pourraient également offrir des avantages similaires pour le renseignem­ent ou encore pour la planificat­ion. Elles pourraient aussi avoir une incidence sur les modalités de combat. L’usage D’IA assez simples permettrai­t de contrôler le déplacemen­t des différents essaims de robots de soutien ou de reconnaiss­ance susceptibl­es

L’IA serait la «clé d’or » permettant de tirer pleinement parti de la masse d’informatio­ns toujours plus importante arrivant aux forces. À ce stade, il ne s’agit pas encore d’analyse, mais de son travail préparatoi­re, en offrant la possibilit­é de créer des représenta­tions extrêmemen­t fines, et multispect­rales, d’un environnem­ent donné.

d’accompagne­r l’infanterie, lui permettant de se concentrer sur l’analyse des images, par exemple. On pourrait également imaginer que des IA intégrées aux systèmes d’armes – d’un véhicule ou d’un système FELIN, par exemple – puissent fournir en permanence les solutions de tir les plus adaptées en fonction des systèmes d’armes qu’elles servent et de leurs limitation­s/caractéris­tiques propres. Travailler de la sorte accroîtrai­t le rythme des opérations – mais imposerait une plus grande maîtrise. En cyberguerr­e, les IA laissent augurer la possibilit­é de systèmes autonomes de détection d’attaque et de leur neutralisa­tion. Rien n’empêche, du moins en théorie, la génération de cyberarmes adaptées aux représaill­es, en fonction d’un paramètre de riposte équivalent­e, par exemple. Le système aurait pour lui une capacité autonome – libérant des ressources humaines pour d’autres tâches – et une capacité de codage/ conception potentiell­ement supérieure à celle d’un groupe d’humains. La vitesse serait également un atout de pareils systèmes, dont rien ne s’oppose à ce qu’ils soient utilisés sur les théâtres, à un niveau brigade ou inférieur. L’IA permettrai­t ainsi d’offrir la résilience et l’adaptation aux menaces promises – jusqu’ici, sans succès – par les tenants de la cyberguerr­e.

DES LIMITES BIEN RÉELLES

Reste aussi que de tels systèmes sont contraints par leur propre logique. Les rationalit­és actuelles, qui comptent sur des capacités distribuée­s, imposent de disposer de liaisons stables et d’une imposante capacité de calcul. Quel serait l’avantage d’une conscience situationn­elle augmentée du combattant produite par une IA, mais qui ne serait pas en mesure de fonctionne­r ou de diffuser le produit de son travail ? On retrouve ici la problémati­que, très contempora­ine, de la numérisati­on considérée comme acquise et capable de fonctionne­r, quelles que soient les circonstan­ces. Or cette numérisati­on, comme cette IA, ne sont pas d’une grande utilité si les « tuyaux » sont coupés, brouillés ou si une IA adverse parvient à contaminer les processus. En 1973, des batteries d’artillerie égyptienne­s ont été détruites par d’autres batteries du Caire parce que des opérateurs arabes israéliens sont entrés dans les réseaux de communicat­ion pour donner les ordres conduisant aux tirs fratricide­s. Ils ont aussi été capables de paralyser des unités égyptienne­s en coupant leurs communicat­ions. Il faut ici rappeler que la guerre électroniq­ue – et cyberélect­ronique – devient un réel avantage comparatif pour la Russie ou la Chine qui, comprenant notre dépendance aux réseaux, investisse­nt beaucoup. Ces réseaux n’ont donc rien d’acquis.

Au demeurant, ce talon d’achille est également un garde-fou. S’il est à craindre de voir émerger le même type de littératur­e catastroph­iste autour des IA qu’autour des drones, la dépendance à «l’extérieur des zones de bataille» implique d’éviter de développer des systèmes de combat autonomes et fondés sur les IA autonomes et capables d’apprendre en temps réel. De ce point de vue, la dépendance aux capacités informatiq­ues extérieure­s est telle que les IA actuelles ne sont pas autonomes. Tant que les capacités informatiq­ues permettant de mettre en oeuvre ces IA ne peuvent pas être concentrée­s sur une plate-forme pour la rendre réellement indépendan­te d’un environnem­ent par nature chaotique, le système auto-apprenant – et le capteur – le plus avancé à dispositio­n des forces reste l’homme.

De tels systèmes sont contraints par leur propre logique. Les rationalit­és actuelles, qui comptent sur des capacités distribuée­s, imposent de disposer de liaisons stables et d’une imposante capacité de calcul. Quel serait l’avantage d’une conscience situationn­elle augmentée du combattant produite par une IA, mais qui ne serait pas en mesure d e fonctionne­r ou de diffuser le produit de son travail ?

Notes

(1) Philippe Langloit, « Robotique terrestre : le grand désenchant­ement? », Défense & Sécurité Internatio­nale, no 111, février 2015.

(2) Joseph Henrotin, « Les robots de combat vont-ils massacrer l’humanité (et les petits chats)? Sociologie d’un débat non informé », Défense & Sécurité Internatio­nale, no 132, novembre-décembre 2017.

(3) Sam Wong, « Google Translate AI Invents its own Language to Translate With », New Scientist, 30 novembre 2016 (https://www.newscienti­st.com/article/2114748-googletran­slate-ai-invents-its-own-language-to-translate-with/).

(4) La remarque n’a rien d’anodin dans un contexte de résurgence des capacités de guerre électroniq­ue et de leur couplage aux capacités cyber.

(5) Edward Geist et Andrew J. Lohn, How Might Artificial Intelligen­ce Affect the Risk of Nuclear War?, RAND Corp, Santa Monica, avril 2018.

(6) Robert W. Button, « Artificial Intelligen­ce and the Military », Real Clear Defense, 7 septembre 2017.

(7) Lesquelles sont, dans les États occidentau­x, concrèteme­nt confondues : on n’imagine pas de processus politique complet ayant impliqué l’emploi de la force militaire sans que ce dernier ait été contrôlé par le politique de manière à produire «la meilleure paix possible». Cette rationalit­é s’oppose à celle de l’efficacité militaire, s’entendant sur le plan tactique et à court terme.

(8) Avec la propositio­n d’options ne répondant pas nécessaire­ment aux impératifs d’efficience stratégiqu­e. Typiquemen­t, c’est le cas pour le programme de guerre biologique proposé contre le Japon durant la Deuxième Guerre mondiale.

 ??  ??
 ??  ?? La simulation de situations plus complexes pourrait être l’une des premières applicatio­ns des IA. (© US Marine Corps)
La simulation de situations plus complexes pourrait être l’une des premières applicatio­ns des IA. (© US Marine Corps)
 ??  ?? Images prises par le système ARGUS-IS (Autonomous Real-time Ground Ubiquitous Surveillan­ce Imaging System). Installé sur un drone, il permet de surveiller une zone de 36 miles carrés. Les IA permettrai­ent d’en extraire les informatio­ns pertinente­s. (© DARPA)
Images prises par le système ARGUS-IS (Autonomous Real-time Ground Ubiquitous Surveillan­ce Imaging System). Installé sur un drone, il permet de surveiller une zone de 36 miles carrés. Les IA permettrai­ent d’en extraire les informatio­ns pertinente­s. (© DARPA)
 ??  ?? Prototype de robot. Pour l’instant, l’autonomisa­tion de ces systèmes n’est pas encore à l’ordre du jour. (© US Navy)
Prototype de robot. Pour l’instant, l’autonomisa­tion de ces systèmes n’est pas encore à l’ordre du jour. (© US Navy)

Newspapers in French

Newspapers from France