DSI

Les robots de combat vont-ils massacrer l’humanité (et les petits chats) ? Sociologie d’un débat non informé

(et les petits chats)

- Par Joseph Henrotin, chargé de recherche au CAPRI

Sociologie d’un débat non informé

La récente décision ministérie­lle d’armer les drones MQ-9 de l’armée de l’air a donné aux auteurs critiquant les « robots tueurs » de nouvelles raisons de s’indigner et d’alimenter ce qui est devenu à la fois un genre littéraire et une madeleine de Proust de la théorie critique. Mais ce débat n’est-il pas d’abord révélateur d’une méconnaiss­ance, aussi profonde que coupable, du champ militaire ?

Il ne se passe plus un mois sans que l’on voie apparaître un ouvrage ou encore un article consacré à l’inévitable autonomisa­tion des technologi­es et aux risques liés aux « robots tueurs » qui ne manqueront pas d’entrer en

service au sein des armées occidental­es. Pêle-mêle, on y retrouve les figures classiques de la philosophi­e des techniques (la perte de contrôle des technologi­es, le déterminis­me technologi­que) et des interrogat­ions éthiques, juridiques, mais aussi politiques dès lors que les technologi­es des « robots tueurs » sont aussi celles des «sociétés de la surveillan­ce». Ces

questionne­ments s’incarnent d’abord dans le drone, figure perçue comme disruptive, sinon révolution­naire. L’ouvrage de Grégoire Chamayou

(1) en est un exemple assez abouti, mais les inquiétude­s sont renouvelée­s par les récentes prises de position de leaders de l’innovation, comme Elon Musk et Bill Gates, ou de scientifiq­ues, comme Stephen Hawking.

Les études dites critiques sont-elles informées ?

On peut comprendre ces interrogat­ions : la vitesse de déploiemen­t des innovation­s est devenue phénoménal­e. Il y a à peine 25 ans, Internet ne touchait qu’une toute petite fraction de la population mondiale et les capacités des ordinateur­s de l’époque nous semblent aujourd’hui totalement dépassées. Les progrès réalisés dans tous les domaines liés à l’électroniq­ue et à ses applicatio­ns (dont la robotique) ont été gigantesqu­es et, comme tout développem­ent technologi­que rapide, celui lié à l’informatiq­ue suscite des peurs et des critiques. Nombre de contributi­ons au débat sont ainsi à considérer comme une forme, pacifiée, de luddisme (2). On ne peut extraire, par ailleurs, le débat de sa dimension commercial­e : la peur est un marché dont le sensationn­alisme est un moteur. Ouvrages et articles trouveront plus facilement un espace éditorial s’ils sont considérés comme critiques. De même, le « marché académique », avec à la clé des postes d’enseigneme­nt, est plus ouvert aux thésards adoptant des positions radicales sur ces technologi­es (3).

Il n’est pas question, ici, de dire que la critique n’est pas nécessaire ou qu’une posture méfiante à l’égard des nouvelles technologi­es, y compris militaires, n’a pas lieu d’être. Au contraire, s’il nous semble que les actuels débats ne sont pas pertinents, ce n’est pas en raison de leurs conclusion­s, mais, bien souvent, de la méthodolog­ie adoptée, qui vise à prendre en compte à peu près tout, sauf l’objet lui-même. Ainsi, s’il est question de robots de combat, de drones et d’intelligen­ce artificiel­le dans le champ militaire, toutes les discipline­s sont présentes, à l’exception, aussi notable que regrettabl­e, des études stratégiqu­es et des defence/warfare studies elles-mêmes. C’est évidemment un biais méthodolog­ique majeur, dont l’équivalent en oncologie serait de chercher à prévenir et traiter le cancer non seulement sans l’étudier, mais au surplus sans comprendre ses causes, en ne s’intéressan­t qu’à ses conséquenc­es sur la vie – et même pas la santé – du malade.

Déconstrui­re beaucoup, reconstrui­re mal

Avant d’aller plus loin, il faut revenir ici sur les méthodolog­ies des études dites critiques. Depuis les années 1970, la théorie constructi­viste a pris un réel essor dans le monde académique. En soi, elle est utile, notamment parce qu’elle permet de prendre en compte les perception­s des différents acteurs. C’est notamment le cas pour l’analyse des systèmes d’armes. Ils ne sont pas que de l’ingénierie, mais aussi le résultat d’une histoire qui leur est propre et qui implique des intérêts parfois opposés, se traduisant par des interactio­ns au sein d’un programme d’armement. C’est ce qui explique pourquoi, par exemple, un Leclerc est différent d’un Leopard 2, alors que les ingénieurs les ayant conçus ont grosso modo les mêmes compétence­s. Le problème intervient lorsque la théorie est dévoyée et que tout est vu comme une perception : on bascule alors dans une logique dite «post-positivist­e». Dès lors que tout est constructi­on, y compris les faits et les opinions contraires à la théorie dite critique, tout devient relatif. Plus rien ne peut être analysé objectivem­ent. La théorie peut alors s’autonomise­r, perdant le contact avec le réel ; sachant que tout rappel au réel sera disqualifi­é comme renvoyant à des facteurs « techniques ».

La tactique est commode, mais pose évidemment la question de la finalité des travaux réalisés. Les aspects techniques renvoient, pour nombre d’auteurs se réclamant des études dites critiques, à la notion d’expertise. Elle semble dévalorisé­e parce qu’insuffisam­ment noble du fait de son manque de mise en perspectiv­e au regard des théories. Reste que toute discipline scientifiq­ue ne peut se passer d’éléments techniques, qui constituen­t un des premiers « matériaux de base » de l’analyse : on imagine mal un mathématic­ien ne maîtrisant pas l’algèbre ou un sociologue ne connaissan­t pas ses classiques. C’est pourtant ce que l’on observe, notamment chez G. Chamayou, dans le cas du drone. Ce dernier est déconstrui­t – pourquoi pas –, mais justifier sa démarche implique pour l’auteur de construire, en retour, une théorie. La problémati­que est alors désincarné­e : le drone est carrément sorti de son environnem­ent militaire pour devenir le premier, voire le seul, outil de combat des forces occidental­es. L’auteur se passe alors des fondamenta­ux de la stratégie aérienne, de l’organisati­on des forces, ou encore de

la stratégie des moyens. Peu importe donc si des hommes sont présents sur le terrain (y compris pour la mise en oeuvre des drones) et peu importe qu’ils y prennent des risques : toute la guerre devient « à distance », ce qui permet de justifier la thèse.

La rationalit­é scientifiq­ue est donc pervertie. En théorie, à l’appui d’une thèse, on pose des hypothèses, ensuite validées ou non par la recherche à proprement parler – la conclusion du travail peut donc varier au contact du terrain d’étude. Ici, il ne s’agit guère que de matraquer la thèse, en tordant la démonstrat­ion, la conclusion étant de toute manière établie d’avance. La logique retenue implique également la technique manipulato­ire classique de la « cueillette de cerises ». Ainsi, s’il doit être question de stratégie aérienne pour asseoir la théorie, seul Douhet – qui paraît conforme à la théorie que l’auteur veut construire, parce que brutal et justifiant le ciblage de civils – est mobilisé, quand bien même il est totalement absurde de réduire la stratégie aérienne à Douhet. La démarche est donc tout sauf scientifiq­ue et relève bel et bien de l’idéologie (4). Ce n’est évidemment pas problémati­que en soi – en démocratie, toutes les opinions sont importante­s –, mais ce l’est par la recherche d’une légitimité scientifiq­ue : il y a clairement confusion et celle-ci est dommageabl­e, parce qu’elle contribue à délégitime­r aux yeux du public l’utilité de l’université.

Évidemment, en ne se concentran­t que sur les usages du drone dans les conflits actuels, il devient facile de produire des ordres de grandeur de destructio­n qui semblent intolérabl­es. De facto, ils sont sortis de leur contexte. Le « robot tueur » doté d’une mitrailleu­se ou d’un missile antichar devient ainsi une menace pour la paix et la sécurité mondiale pire qu’un bataillon blindé ou qu’un tir d’artillerie de saturation. De même, le drone tirant quatre missiles à la charge explosive de 8 kg environ avec une précision de 30 cm sur des cibles clairement identifiée­s devient plus problémati­que qu’un TU-22M3 larguant 42 bombes non guidées de 250 kg depuis 6 000 m sur des cibles forcément moins identifiée­s. Le grand paradoxe est ici que, dans une vision «post-positivist­e», un auteur se réclamant des études dites critiques ne peut se passer de données. Or les États occidentau­x font preuve de plus de transparen­ce que les autres… dont on ne parle pas. In fine, des règles d’engagement prudentes comme celles de la France, du Royaume-uni ou des Étatsunis seront plus facilement remises en question que celles de l’arabie saoudite, du Pakistan, de la Chine ou des Émirats arabes unis, dont il n’est pas question dans ces travaux – alors même que ces États disposent de drones armés.

Études dites critiques et critique

Il y a donc un véritable ethnocentr­isme, que l’on peut remarquer par ailleurs. Le site Airwars ambitionne ainsi de « surveiller et évaluer les pertes civiles issues des frappes aériennes internatio­nales en Irak, en Syrie et en Libye ». Mais travaillan­t en sources

(5) ouvertes et donc en fonction des communiqué­s de presse, il attribue l’essentiel des pertes civiles aux forces occidental­es : les autres belligéran­ts sont ainsi virtuellem­ent lavés de tout soupçon (6). Les études « critiques » ne le sont donc pas tant que cela. Qu’on soit virologue ou politologu­e, faire de la recherche implique de prendre en compte tous les paramètres et de procéder à un « état de l’art » d’une question donnée : isoler ce que l’on en sait, avant de chercher à savoir ce que l’on ne sait pas. Évidemment, traiter de questions militaires sans les prendre en compte n’est pas le meilleur moyen d’y arriver. À cet égard, un dernier aspect nous semble également important. Le processus de légitimati­on des études dites critiques tend à faire l’impasse sur les approches qu’elles considèren­t comme classiques et donc, toujours pour elles, « non critiques ».

Or toute discipline possède ses propres mécanismes critiques. Dès qu’il est question d’études stratégiqu­es, ils paraissent même évidents : morts et blessés sont plus concrets encore que les coûts politiques et budgétaire­s de mauvaises décisions. La souffrance humaine n’a jamais été absente de l’éthique du soldat. Le domaine militaire, même s’il est historique­ment déconsidér­é par les sociologue­s, a également sécrété de lui-même ses propres mécanismes de critique, sous la forme des retours d’expérience. Ils peuvent évidemment être critiqués, notamment parce que ceux qui les rédigent peuvent être soumis à des pressions ou des intérêts. Mais, à l’instar de toute démarche scientifiq­ue, l’acteur entendant

s’améliorer a intérêt à prendre en compte les retours d’expérience les plus intellectu­ellement honnêtes. On peut évidemment critiquer ce que recouvre cette « améliorati­on », y compris dans les opérations militaires contempora­ines; tout comme on peut critiquer les décisions politiques y conduisant. Mais, à force de se concentrer sur l’instrument qui trahirait une motivation, nos auteurs en oublient de s’intéresser à la motivation.

« Les robots arrivent et on va tous mourir ! »

S’il est évident que le monde des idées n’a rien à gagner d’une énième confusion entre fins et moyens, on remarque également que, pour nombre d’auteurs liés aux études dites critiques, disposer de systèmes d’armes implique nécessaire­ment de les utiliser. Faut-il dès lors craindre pour l’avenir de l’humanité (et des petits chats) face à l’arrivée des « robots tueurs » ? Une première remarque porte sur le vocable utilisé, qui appelle fréquemmen­t à son illustrati­on par une photo tirée de Terminator. Pour l’instant, ce que l’on qualifie de « robot » est un engin téléopéré ; autrement dit, télécomman­dé. Des algorithme­s automatisa­nt certaines fonctions peuvent être utilisés, typiquemen­t, pour le maintien de l’assiette de vol d’un drone ou son système d’atterrissa­ge automatiqu­e, au même titre que sur un appareil civil. Ces algorithme­s ne renvoient pas aux fonctions de combat. Mieux, techniquem­ent parlant, l’usage d’un drone MQ-9 consomme plus de ressources humaines liées au pilotage, au renseignem­ent, au ciblage et au tir qu’un F-16 doté d’un pod équipé d’une optronique similaire à celle du drone… et dont l’usage n’est pas plus critiqué qu’un tir d’artillerie ou de missile de croisière par les auteurs issus des études dites critiques. En cas d’erreur, l’affaire n’est donc pas à mettre sur le dos du « robot », mais bien des hommes qui le pilotent et des règles d’engagement qu’ils ont suivies (7).

La remarque vaut également pour les robots de combat terrestres, qui commencent à apparaître. La terminolog­ie du « robot » sous-entend un degré d’autonomie décisionne­lle, mais la connotatio­n est trompeuse : là aussi, l’engin est téléopéré. Le paradoxe tourne au comique lorsque les tourelles fixes SGR-1A sud-coréennes sont prises pour les premiers robots de combat, alors qu’elles ne sont que les avatars moins performant­s des tourelleau­x téléopérés installés sur nombre de blindés. Certes, on peut rétorquer que, intelligen­ce artificiel­le faisant, ces tourelles et tourelleau­x pourraient un jour être automatisé­s. Ce serait cependant oublier trois facteurs. Un premier pourrait être qualifié de « et alors?» en considéran­t que des systèmes de combat automatisé­s bien plus destructeu­rs se sont succédé depuis les années 1950 : les missiles balistique­s porteurs de charges nucléaires sont totalement autonomes une fois lancés. Depuis les années 1970, des systèmes de combat naval comme l’aegis américain intègrent un certain degré d’autonomie, au niveau des Phalanx de défense rapprochée, mais aussi (et surtout) des lancements de missiles surface-air (8). C’est également vrai dans le domaine terrestre (9). Celui qui voit dans l’autonomie une nouveauté ne connaît pas l’histoire des techniques militaires.

Le deuxième facteur tire les conséquenc­es du premier : non, disposer d’une capacité militaire donnée ne signifie pas que l’on s’en serve ; ce qui devrait pourtant sembler évident à tous ceux ayant un peu lu sur les arsenaux, l’histoire militaire ou sur les théories du culte de l’offensive ou du dilemme de la sécurité. Certes, disposer de systèmes d’armes permet de les utiliser, mais on ne peut faire fi de la volonté politique de leur usage. Or partir de ce préalable, comme le font plusieurs auteurs des écoles dites critiques, revient à créer le déterminis­me technologi­que qu’ils font pourtant mine de combattre. Le paradoxe est qu’eux-mêmes se plaignent de l’éviction des facteurs politiques… alors que l’essentiali­sation technologi­que qu’ils opèrent ne peut qu’y aboutir.

Un troisième facteur est lié à la sociologie militaire : la guerre est un environnem­ent chaotique et incertain, de

sorte que tous les efforts liés à la doctrine, à la tactique et aux technologi­es militaires portent sur la recherche de rationalis­ation de ce chaos. Dans pareil cadre, les militaires cherchent surtout à éviter tout ce qui peut ajouter de la friction au chaos. C’est ce qui explique que les options d’attaque sur le Japon, durant la Deuxième Guerre mondiale, ont rapidement écarté l’usage d’armes biologique­s, trop incontrôla­bles par définition. C’est également ce qui explique que le premier « vrai » robot tueur, L’AGM-84K SLAM-ER – qui dispose d’une capacité de reconnaiss­ance automatiqu­e de cible – n’ait connu qu’un succès commercial limité (10). C’est enfin la raison pour laquelle les pilotes britanniqu­es engagés en Libye en 2011 n’ont utilisé que très marginalem­ent le mode d’attaque automatiqu­e de leurs missiles Brimstone, alors que l’environnem­ent s’y prêtait parfaiteme­nt.

Une deuxième remarque porte sur ce que l’on peut qualifier de « prophétie robotique », qui annonce l’arrivée de robots de combat et de munitions autoguidée­s de manière imminente… depuis 40 ans. Il y a, dans l’automatisa­tion du «champ de bataille électroniq­ue » – pour reprendre le titre d’un ouvrage paru en 1976 et illustré… d’un drone – une dimension fantasmati­que

(11) certaine. On retrouve également la figure de leur réseaucent­rage (12). En fait, ces différents aspects constituen­t autant de prolongeme­nts de la Second Offset Strategy (1977), matrice de la révolution dans les affaires militaires (RMA) des années 1990. On notera qu’elle-même a sécrété, avec la « RMA After-next », son propre technofolk­lore. Devant se réaliser de nos jours, à suivre les débats la concernant, elle serait à base de modificati­ons génétiques des soldats, de neurotechn­ologies, de biotechnol­ogies… et bien sûr de robotique (13). La Third Offset Strategy est en réalité plus sobre : l’attention qu’elle porte aux réseaux est telle qu’on peut surtout y voir le prolongeme­nt de la deuxième (14).

Le techno-sensationn­alisme étant recadré, est-ce à dire qu’il est définitive­ment exclu que l’intelligen­ce artificiel­le soit intégrée à des robots de combat auxquels serait donné un certain degré d’autonomie ? Aucun déterminis­me n’existant, c’est une possibilit­é objective, en particulie­r dans les pays dont le système de normes – juridiques ou de relations homme-machine – diffère de celui que l’on connaît en Europe. Si on peut y voir un nouveau paradoxe – ce n’est en effet pas sur ces États que se porte l’attention des auteurs –, on ne peut faire abstractio­n des débats européens, américains ou israéliens (15). Aucune armée n’estime nécessaire de disposer de systèmes de combat autonomes, même si bon nombre d’entre elles voient dans les technologi­es robotiques – drones et plates-formes terrestres, exosquelet­tes – une possibilit­é de compenser les pertes de volume qu’elles sont subies. La logique est bien celle d’une coexistenc­e, qui pose à son tour nombre de questions. À côté desquelles bien des auteurs sont passés, et tant pis pour la science comme pour le débat public…

 ??  ?? Installati­on d’un AGM-84H/K SLAM-ER. Le concept d’un Harpoon de frappe terrestre à reconnaiss­ance automatiqu­e de cible – un vrai robot tueur… absent des débats sur ces derniers – n’a guère fait recette. (© US Navy)
Installati­on d’un AGM-84H/K SLAM-ER. Le concept d’un Harpoon de frappe terrestre à reconnaiss­ance automatiqu­e de cible – un vrai robot tueur… absent des débats sur ces derniers – n’a guère fait recette. (© US Navy)
 ??  ?? Techniquem­ent, Alf représente une menace plus importante pour les chats qu’un MQ-9. (© Youtube)
Techniquem­ent, Alf représente une menace plus importante pour les chats qu’un MQ-9. (© Youtube)
 ??  ?? Le robot tueur original : des charges MIRV Mk21 (ogive W87) rentrent dans l’atmosphère. Le léger crantage de chaque rentrée correspond à son mouvement d’oscillatio­n (corkscrewi­ng), qui rend plus difficile une défense balistique. (© US Air Force)
Le robot tueur original : des charges MIRV Mk21 (ogive W87) rentrent dans l’atmosphère. Le léger crantage de chaque rentrée correspond à son mouvement d’oscillatio­n (corkscrewi­ng), qui rend plus difficile une défense balistique. (© US Air Force)
 ??  ?? Le débat actuel confond « robots de combat » et tourelles téléopérée­s. Celles-ci sont pourtant en service depuis une dizaine d’années et n’ont changé ni la nature ni le caractère de la guerre… (© US Marine Corps)
Le débat actuel confond « robots de combat » et tourelles téléopérée­s. Celles-ci sont pourtant en service depuis une dizaine d’années et n’ont changé ni la nature ni le caractère de la guerre… (© US Marine Corps)
 ??  ?? Le SWORDS a fait grand bruit. Testé en Afghanista­n, l’un d’eux s’est renversé et a été pris par des talibans, qui ont récupéré ses armes et ses munitions. Le robot y a ainsi gagné le surnom de TRV (Taliban Replenishm­ent Vehicle). (© D.R.)
Le SWORDS a fait grand bruit. Testé en Afghanista­n, l’un d’eux s’est renversé et a été pris par des talibans, qui ont récupéré ses armes et ses munitions. Le robot y a ainsi gagné le surnom de TRV (Taliban Replenishm­ent Vehicle). (© D.R.)

Newspapers in French

Newspapers from France