LIMITES ET PERSPECTIVES DES MÉTHODES DE PLANIFICATION COMME MOYEN D’AIDE À LA DÉCISION
La performance d’une armée procède-t-elle davantage de la qualité de ses équipements ou de celle de son commandement? L’expérience des conflits du XXE siècle démontre que l’un ne va pas sans l’autre et que la possession des meilleurs équipements n’apporte qu’une faible plus-value si le commandement n’est pas en mesure de trouver une solution au problème qui lui est soumis. L’élaboration de la solution s’appuie sur une méthode de planification qui guide la réflexion, facilite l’organisation et la répartition du travail. La standardisation qu’elle impose, en particulier dans le vocabulaire, permet de travailler en coalition. Toutefois, cette standardisation tend à produire des options assez prévisibles.
La standardisation s’inscrit dans un processus lent et laborieux, diversement apprécié par les officiers d’état-major qui lui reprochent de mécaniser leur réflexion et de restreindre leur créativité à la portion congrue. Cette méthode découle en partie des travaux de Descartes, qui recommandent d’aborder un problème en « divisant chacune des difficultés afin de mieux les examiner et les résoudre ». Schématiquement, la méthode de planification découpe le problème verticalement, entre les niveaux politique, stratégique, opératif et tactique, et horizontalement selon les effets à obtenir au sein de chaque niveau. Ce procédé est valide dès lors que la somme des solutions
Photo ci-dessus :
Les processus de commandement et contrôle sont appelés à évoluer en fonction des avancées liées aux IA. (© DOD)
aux problèmes élémentaires est égale à la solution de leur somme ; les mathématiciens diraient que la fonction solution est linéaire. Or les travaux sur la complexité (1) tendent à démontrer que ce postulat n’est pas vérifié pour un système complexe, ce que sont, à n’en point douter, les systèmes sur lesquels agissent les opérations miliaires. L’histoire confirme ce constat puisqu’une succession de victoires tactiques ne conduit pas toujours à une victoire politique. Élaborée en 2010, la COPD (2), méthode de planification de L’OTAN, entend remédier à cet écueil en introduisant des éléments appartenant à la théorie des systèmes. Pour autant, son approche reste essentiellement analytique, tout au moins dans la verticalité, ce qui oblige, nous semblet-il, à nous interroger sur sa pertinence et ses limites, voire à envisager une alternative.
Quant à la connaissance de la situation, ainsi que la situation elle-même, toutes deux évoluent à mesure que l’opération progresse. Construite sur des éléments précaires, la solution – lorsqu’elle existe – doit être constamment ajustée.
LE BUT
DE LA PLANIFICATION
Planifier consiste à concevoir un pont entre deux piliers branlants : la situation et l’état Final Recherché (EFR). Rédigé de façon succincte, L’EFR n’est jamais qu’une partie de l’état final qui sera atteint ; il ne saurait rendre exhaustivement compte de l’ensemble des conséquences d’une intervention, fussentelles non souhaitables, voire non anticipées. De plus, il est fréquent que cet EFR ne soit que
partiellement atteint et qu’il soit contourné par l’émission de critères de sortie, forts utiles pour éviter l’enlisement. Quant à la connaissance de la situation, ainsi que la situation elle-même, toutes deux évoluent à mesure que l’opération progresse. Construite sur des éléments précaires, la solution – lorsqu’elle existe – doit être constamment ajustée selon un tempo qui doit éviter les conséquences néfastes d’une trop grande fébrilité et ceux d’une trop grande inertie. La gestion de ce tempo est l’une des qualités essentielles du commandant de l’opération, qui doit saisir le moment où la persévérance vertueuse se transforme en acharnement inutile.
La théorie des systèmes apporte une solution partielle à ce problème en préconisant l’implémentation de boucles dites de rétroactions (feedback) (3) et c’est très exactement le rôle du processus d’assessment prévu dans la COPD. Considérant le théâtre d’opérations comme un système, ce processus ambitionne d’asservir les actions conduites par la force à l’évolution de la situation, mesurée par des mesures of effectiveness attachées à chacun des effets attendus, ce qui est déjà une limite puisqu’il existe toujours des effets inattendus. Mais cette approche scientifique de la guerre peine à tenir ses promesses(4), ce qui était prévisible compte tenu de la non-linéarité des systèmes complexes (5). Coeur de l’effect Based Approach (EBO), elle tend à substituer une complexité d’indicateurs à celle du terrain, sans pour autant apporter une plus-value significative en termes de compréhension de la dynamique du théâtre. Comme le faisait remarquer Paul Valéry (1871-1945), « Tout ce qui est simple est faux, mais tout ce qui ne l’est pas est inutilisable ». Coïncidant avec la maturité à la fois du concept D’EBO et de l’informatique opérationnelle, l’utilisation des indicateurs dans l’opération «Iraqi Freedom » (2003) suscita une telle déception que le général Mattis, USJFCOM, déclara en 2008 : « L’EBO handicape plus qu’il n’aide les Joint Operations. (6) »
La complexité des opérations découle également de la difficile prise en compte de la masse d’informations générée par la multiplication des capteurs sur les théâtres d’opérations et le déploiement des réseaux jusqu’aux plus bas niveaux. Si la corrélative multiplication des officiers au sein des états-majors y remédie partiellement, le problème réside alors dans l’extraction de la « substantifique moelle » parmi toute l’information produite et collectée afin d’éclairer les décisions prises par un seul homme, affecté des limitations cognitives immanentes à notre condition humaine(7). Cet effort de synthèse s’accompagne inévitablement de dégradations de l’information. Les principales découlent des choix concernant la «granularité», les axes d'approche et les outils employés. « Granularité », car l’exigence de simplification oblige à négliger certains détails; or « le diable se cache dans les détails (8) ». Axes d’approche, car la projection d’un système complexe selon un nombre d’axes limités, tels que les critères choisis par le commandant de l’opération, amène à négliger d’autres axes. Enfin, outils employés, car les logiciels de présentation de l’information, tels que Powerpoint, ont certainement un effet sur la réflexion produite par l’état-major et donc, in fine, sur les options soumises au commandant de l’opération. En accordant la primauté à l’esthétique, ces logiciels incitent à la transcription chronophage d’informations textuelles riches en schémas, parfois au détriment des nuances.
Puisqu’il est question de nuance, comment ne pas aborder le cadre de réflexion « ami, adversaire, neutre », imposé par la méthode de planification ? Cette approche nie la fameuse phrase du général de Gaulle : « Les États n’ont pas d’amis, ils n’ont que des intérêts. » Il en va certainement de même dans les opérations. Une approche fondée sur les intérêts permettrait de mieux border les coopérations, en particulier dans leurs limites temporelles, spatiales et thématiques et ouvrirait peutêtre la voie à de nouveaux modes d’action. L’ouverture de cette porte exigerait certainement de densifier encore davantage les liens entre diplomates et militaires.
L’IA ET LA PLACE DE L’HOMME
Ces biais, limitations et pesanteurs soulèvent la question de l’existence d’une alternative. Puisque l’ensemble des problèmes mentionnés supra découle de notre inaptitude individuelle à traiter la complexité et des stratégies et outils destinés à contourner cette inaptitude, ne vaudrait-il pas mieux remplacer les décideurs par des machines? Pour saugrenue qu’elle puisse paraître, cette idée est déjà effective dans certains domaines, en particulier ceux qui exigent une grande réactivité. Ainsi, les systèmes de défense antiaériens des navires de guerre limitent, dans certains modes, l’action de l’homme – trop lent – au veto. Dans le domaine du commandement, on assiste à une multiplication des logiciels destinés à automatiser certaines phases de nos processus décisionnels tels que la préparation de l’operational design, de l’assessment, voire du mission analysis briefing. Il s’agit en quelque sorte d’employer la machine pour singer notre mode d’organisation, voire de réflexion. En allégeant la charge de travail des officiers d’état-major, cette approche peut certainement apporter une plus-value à court
Comme le faisait remarquer Paul Valéry (1871-1945), « Tout ce qui est simple est faux, mais tout ce qui ne l’est pas est inutilisable ».
terme, mais elle ne saurait dispenser d’une réflexion prenant réellement en compte les différences fondamentales entre hommes et machines, une réflexion « computer-centric » (9). Les machines étant infiniment plus performantes que les humains pour traiter la complexité, la circonscription de leur action dans un processus biaisé et essentiellement pensé pour contourner nos limitations nous amènerait certainement à manquer une opportunité susceptible de se transformer en rupture stratégique(10) pour l’exercice du commandement.
Si l’aide à la décision consiste aujourd’hui à simplifier pour décider, les machines permettront de simuler pour décider. La simulation exige une modélisation dynamique du théâtre d’opérations, afin d’identifier des leviers, de tester plusieurs options et de déterminer celle qui permettra de s’approcher au mieux des objectifs recherchés, dans le cadre des limitations fixées. La modélisation d’un théâtre s’appuie sur des informations aussi diverses que le nombre de fantassins, leur autonomie, le type d’armes qu’ils utilisent, la portée de ces armes, les performances des véhicules, les réserves de carburant, l’état des routes, etc. Certains simulateurs permettent d’ores et déjà de reproduire des situations complexes, mais au prix d’une multiplication de paramètres qui doivent être saisis manuellement. Les difficultés de tenue à jour, les risques d’erreur et les délais induits par cette saisie manuelle diminuent l’intérêt de ces simulateurs. L’amélioration des performances et de l’employabilité des systèmes de simulation exige donc le développement d’outils d’extraction et de structuration automatiques et fiables des informations. Le développement de ce type d’outil est un axe de recherche majeur en Intelligence Artificielle (IA) statistique, mais aussi symbolique(11) – axes sur lesquels la France est bien présente (12). Idéalement, ces outils devront alimenter automatiquement, sans intervention humaine, les modèles destinés à conduire des simulations. À terme, ces modèles devront être capables de « curiosité », c’est-à-dire qu’ils devront être dotés d’une fonctionnalité leur permettant d’orienter eux-mêmes la collecte des informations nécessaires pour améliorer encore les performances de la simulation. Ils deviendront donc structurants pour le traitement, l’exploitation et la dissémination des données (PED) (13).
La partie simulation se heurte elle aussi à la complexité. Le nombre d’options qui s’ouvrent au commandant d’une opération à chaque instant est potentiellement infini. L’organisation du commandement remédie à cette complexité par le jeu des délégations, qui permet au commandant de se libérer des préoccupations qui ne sont pas de son niveau (division, brigade, régiment, bataillon, compagnie, section, etc.). Pour l’épauler dans sa prise de décision, la simulation devra tenir compte du degré de liberté qui doit être accordé aux forces, en partant du principe que ce degré de liberté est dépendant du niveau de connaissance de la situation. Dans un environnement très incertain, la simulation ne doit pas être trop précise. Le chemin vers la simulation des opérations militaires a été ouvert par les victoires de L’IA contre des humains aux jeux de stratégie, en particulier aux échecs, au go et maintenant à Starcraft II (14). Cette dernière victoire de Deepmind (IA de Google) n’est pas aussi anecdotique qu’il semble, car, en offrant 1 026 actions élémentaires possibles à chaque tour, ce jeu dit d’information incomplète se rapproche encore de la complexité des opérations réelles. Sans entrer dans certains détails qui dépasseraient l’ambition de cet article, Deepmind a été entraîné une
Ne vaudrait-il pas mieux remplacer les décideurs par des machines ? Pour saugrenue qu’elle puisse paraître, cette idée est déjà effective dans certains domaines, en particulier ceux qui exigent une grande réactivité.
première fois à partir de données collectées lors de parties déjà jouées, dans une approche big data et «apprentissage supervisé», puis L’IA a développé ses propres stratégies en utilisant une approche d’« apprentissage par renforcement», en simulant plusieurs centaines d’années de jeu (15).
Avant même que les possibilités de L’IA soient avérées, des voix se lèvent pour maintenir l’homme au centre du processus décisionnel. Même si la recherche avance, l’idée du robot tueur reste encore un tabou. Pourtant, le remplacement de l’homme par une IA plus précise, plus rapide, capable d’une approche plus globale pourrait apporter une plus-value dans la réduction des souffrances liées à la guerre (16). L’enjeu derrière l’emploi des outils de modélisation et de simulation à base D’IA est la réactivité, la précision et la sortie des stratégies d’essais et d’ajustements selon une approche expérimentale, potentiellement coûteuse en temps, en hommes et en ressources. L’exigence d’une trop forte implication de l’humain dans le processus décisionnel réduirait les avantages de la simulation. Par ailleurs, le déploiement de ce type d’outils, à un horizon qui n’est pas encore visible, est susceptible de rapprocher les fonctions renseignement, planification et conduite des opérations, de comprimer les niveaux de commandement et donc de remettre en cause l’organisation actuelle du commandement et des états-majors.
Toutefois, il serait imprudent de prétendre apporter un éclairage définitif sur ce sujet.
Ce champ de recherche en est encore à ses balbutiements, son potentiel reste très hypothétique et pour quelques années encore, L’IA servira principalement à seconder l’officier d’état-major dans ses processus. Powerpoint a encore de belles années devant lui, jusqu’au jour où la prise de décision cessera d’être un art, articulé autour de l’exigence de simplification en vue de la décision, pour devenir une science. À l’issue de leur défaite, la remarque du joueur de go et des joueurs de Starcraft II fut que les machines gagnent, mais ne jouent pas comme les humains, elles jouent de façon surprenante. Il appartient désormais aux militaires de se prémunir contre une telle surprise sur le territoire national, contre les citoyens ou contre les intérêts français où qu’ils soient.
Notes
(1) Voir Lucien Sève, Janine Guespin-michel et alii, Émergence, complexité et dialectique : Sur les systèmes dynamiques non linéaires, Odile Jacob, Paris, 2005.
(2) COPD pour Comprehensive Operational Planning Directive. (3) Le concept de boucle de rétroaction a été théorisé par Norbert Wiener, en 1948, lors de ses travaux sur le guidage des missiles antiaériens, travaux qui sont à l’origine de la cybernétique. Voir Norbert Wiener, Cybernetics or Control and Communication in the Animal and the Machine, Hermann, Paris, 1958.
(4) Voir Michel Goya, « Datapocalypse-big data et guerre du Vietnam », blog La voie de l’épée, 4 décembre 2017.
(5) Voir Lucien Sève, Janine Guespin-michel et alii, op. cit. (6) Voir James N. Mattis, « USJFCOM commander’s guidance for effects-based operations », Army War College, Carlisle Barracks, 2008.
(7) Notons au passage la parfaite compatibilité du concept de «centre de gravité» avec l’exigence de synthèse liée à nos limitations cognitives. Insaisissable dans les opérations complexes, le centre de gravité n’est-il qu’une création de notre esprit qui s’est imposée par nécessité?
(8) Nietzsche (1844-1900).
(9) Par analogie avec netwok centric.
(10) Voir Corentin Brustlein, « La surprise stratégique. De la notion aux implications », Focus stratégique, no 10, IFRI, 2008.
(11) Voir Jérôme Azé, Extraction de connaissances à partir de données numériques et textuelles, thèse de doctorat, université Paris Sud-paris-xi, 2003.
(12) Voir « Rapport de synthèse. France Intelligence artificielle », groupe de travail, 2017, p. 5.
(13) Voir Corey Lofdahl, Martin Voshell et Samel Mahoney, « Designing Future Processing, Exploitation, and Dissemination Support Systems Using Simulation », Procedia Computer Science, vol. 36, 2014, p. 33-40.
(14) Nasri Othman, James Decraene, Wentong Cai et alii, « Simulation-based optimization of Starcraft tactical AI through evolutionary computation », IEEE Conference on Computational Intelligence and Games (CIG), 2012, p. 394-401.
(15) Voir Oriol Vinyals, Timo Ewalds, Sergey Bartunov et alii, Starcraft II: A new challenge for reinforcement learning, Arxiv, 16 août 2017 (https://arxiv.org/pdf/1708.04782.pdf). (16) Ronald C. Arkin, « The Case for Ethical Autonomy in Unmanned Systems », Journal of Military Ethics, vol. 9, no 4, p. 332-341, 2010.
Si l’aide à la décision consiste aujourd’hui à simplifier pour décider, les machines permettront de simuler pour décider.