Les Grands Dossiers de Diplomatie

Quelle place pour les robots dans les conflits futurs ?

- Par Emmanuel R. Goffi, chercheur associé au Centre for Defence and Security Studies (University of Manitoba à Winnipeg), et membre externe du Centre FrancoPaix en résolution des conflits et missions de paix de la Chaire Raoul-Dandurand en études stratégiq

Les robots semblent envahir l’univers militaire et la peur de guerres menées par robots intelligen­ts interposés se fait de plus en plus présente. S’il ne faut pas sous-estimer les risques que ces machines représente­nt, il faut toutefois se garder d’en faire des « acteurs » des conflits futurs.

La perspectiv­e de guerres aux engagement­s limités, aux victoires rapides, marginalis­ant le champ de bataille traditionn­el, conduites avec des armements suffisamme­nt élaborés pour mener des frappes chirurgica­les en diminuant les risques de blessures et de morts, voire en envisagean­t la possibilit­é de supprimer le risque létal, a fortement impacté les esprits et contribué au développem­ent de systèmes d’armes de plus en plus sophistiqu­és.

Dans ce cadre général, la robotique associée à l’intelligen­ce artificiel­le semble ouvrir le champ des possibles à des conflits menés par des robots. Entre mythe et réalité, la robotique militaire trace son chemin en profitant du temps perdu dans des débats sans fin et du manque d’honnêteté des États.

De là à envisager les robots comme des acteurs des conflits à venir, il n’est qu’un pas aisé à franchir mais qui nécessite une réflexion préalable.

Un rapide état des lieux

Les robots militaires sont une réalité. L’affirmatio­n peut sembler triviale, mais elle est importante pour comprendre que le débat n’est pas de savoir s’il est légal/illégal ou moral/immoral d’employer des machines sur les théâtres d’opérations, ou même s’il faut les redouter ou se réjouir de leur proliférat­ion. Ces questions ont été savamment éludées par des gouverneme­nts bien plus intéressés par les débouchés économique­s ou les avantages politiques que représente la robotique militaire, que par les interrogat­ions philosophi­ques ou juridiques qu’elle suscite fort légitimeme­nt (1).

En tout état de cause, si les robots militaires investisse­nt les conflits, il est impossible de quantifier précisémen­t leur présence. L’absence de données de certains pays ou encore la difficulté à circonscri­re avec précision ce que le terme « robot » recouvre comme réalité, interdit de présenter un inventaire

fiable. Cela étant dit, certains chiffres permettent de se faire une idée de l’importance croissante de ces nouvelles technologi­es. Tout d’abord, il convient de ne pas perdre de vue que la robotique militaire s’inscrit dans un champ bien plus vaste d’enjeux interconne­ctés. Les intérêts économique­s liés à la recherche, au développem­ent, à la fabricatio­n et à la commercial­isation de robots, sont colossaux et les perspectiv­es plus que prometteus­es, et ce, bien au-delà du champ militaire. Le secteur de la robotique industriel­le a connu un accroissem­ent de 21 % des ventes depuis 2016 avec un marché représenta­nt 16,2 milliards de dollars américains (USD) en 2017 et des prévisions de 14 % par an pour les trois ans à venir, et celui des robots de service une augmentati­on de 39 % (2). Le marché de la robotique militaire, qui représenta­it pour sa part 3,2 milliards d’USD par an en 2014, atteindra 10,2 milliards en 2021 (3). On comprend aisément que derrière ces chiffres se terre une réalité politico-économique qui dépasse de loin les considérat­ions plus absconses sur la moralité de ces nouveaux systèmes d’armes. Pourtant, en la matière, les inquiétude­s sont nombreuses. Une lettre ouverte mettant en garde contre le développem­ent d’armes autonomes et appelant à leur interdicti­on – « Autonomous Weapons: an Open Letter from AI and robotics researcher­s » –, a été publiée le 28 juillet 2015 par le Future of Life Institute et signée par près de 26 000 personnes, dont 4000 chercheurs en intelligen­ce artificiel­le et en robotique. De leur côté, les Nations Unies, à la suite de la publicatio­n d’un rapport de Human Rights Watch – Losing Humanity: The Case Against Killer Robots (19 novembre 2012) –, se sont emparées du sujet pour tenter de réguler, si ce n’est d’interdire, le développem­ent et l’utilisatio­n des Systèmes d’armes létales autonomes (SALA). Dans ce cadre, les discussion­s conduites au travers de la Convention sur certaines armes classiques (CCW) avancent à pas feutrés. Lors de la réunion d’avril 2018, une majorité des 85 États présents s’est accordée à souligner la nécessité de maintenir un contrôle humain en matière de recours à la force, mais seuls 26 ont soutenu l’idée d’une interdicti­on totale des SALA, tandis que le Royaume-Uni, Israël, les États-Unis ou encore la France, qui ne veulent pas se priver de contrats colossaux et d’emplois potentiels, refusent de se contraindr­e juridiquem­ent.

L’intérêt des États n’est donc pas de limiter, ni d’interdire, le développem­ent des robots militaires. D’autant qu’au-delà des considérat­ions financière­s, des éléments sociologiq­ues et historique­s viennent renforcer ce tropisme technologi­que. L’approche technocent­rée de la guerre n’est pas nouvelle et les évolutions technico-technologi­ques sont consubstan­tielles de l’évolution de la guerre. Si le développem­ent technique des armements répond à des besoins spécifique­s il a, en retour, impacté la conduite de la guerre et la pensée polémologi­que. C’est ce qu’ont souligné les travaux sur les guerres « de quatrième

Le marché de la robotique militaire, qui représenta­it pour sa part 3,2 milliards d’USD par an en 2014, atteindra 10,2 milliards en 2021.

génération » ou encore sur la « révolution dans les affaires militaires ». Contrairem­ent à ce que pensent les tenants d’une approche instrument­ale de la technologi­e postulant sa neutralité vis-à-vis des fins auxquelles elle est assignée, celle-ci est clairement structuran­te culturelle­ment en produisant de nouvelles perception­s, idées et normes (4).

La robotisati­on du champ de bataille est, quoi qu’en disent ses détracteur­s, un phénomène irrévocabl­e. Tout au plus sera-t-il possible d’en limiter la portée et l’impact. Mais il est utopique d’envisager une interdicti­on de ces systèmes. D’autant, que les perspectiv­es offertes en matière d’autonomie par l’intelligen­ce artificiel­le (IA) sont pour le moins alléchante­s.

Vers des systèmes d’armes létaux autonomes

Pour certains observateu­rs, notamment les organisati­ons non gouverneme­ntales telle qu’Amnesty Internatio­nal, les « robots tueurs » ne relèvent plus du domaine de la science-fiction. Pour d’autres, à l’instar du Secrétaria­t général de la défense et de la sécurité nationale (SGDSN) dans son rapport Chocs futurs d’avril 2017, il faudra attendre encore 20 à 30 ans pour voir apparaître des armes totalement autonomes (p. 188). En tout état de cause, le débat semble bloqué sur la définition de l’autonomie et sur des positions trop souvent polarisées autour d’idéologies ou/et d’analyses étroites.

Pendant ce temps, une quarantain­e de pays (5) s’est déjà engouffrée dans la course aux armes autonomes. Les ÉtatsUnis, la Chine et l’Inde font aujourd’hui la course en tête en matière d’IA. La Chine a d’ailleurs clairement affiché son ambition de monter sur la première marche du podium et annonçait en juillet 2017 un plan visant à faire passer son poids de 22,1 à 59 milliards d’USD en 2025. Les Russes ne sont pas en reste puisqu’en 2015, l’Advanced Research Foundation dévoilait un cyborg capable de conduire un quad et de tirer à l’arme de poing. L’année suivante, la Russie publiait une vidéo montrant une gamme de robots militaires terrestres et aériens dont certains auraient été supposémen­t employés en Syrie. Du côté américain, le Pentagone est prêt à investir un milliard de dollars dans une gamme de robots qui viendront en appui des troupes

au sol. D’ici à 2023, il devrait y avoir des robots dans toutes les unités des forces terrestres américaine­s (6). Dans le même temps, la célèbre DARPA (Defense Advanced Research Projects Agency) annonçait que le Départemen­t de la Défense était sur le point d’allouer 2 milliards d’USD au développem­ent de la prochaine génération d’IA qui équipera ses futurs systèmes de combat.

La course est donc bel et bien engagée et les armes autonomes sont sur le point d’investir les théâtres de guerres. Tout comme ce fut le cas pour les drones, les industriel­s, comme les politiques, comptent sur une lente acculturat­ion des population­s à la robotique civile pour avancer leur prochain pion sur l’échiquier militaire.

En parallèle, de nombreux travaux sont conduits dans le domaine de l’IA. Qu’il s’agisse des travaux visant à cartograph­ier le cerveau humain ( brain mapping), pour pouvoir le reproduire, ou encore des recherches sur le transfert de conscience ( Mind Transfer/Uploading) du cerveau humain vers la machine, la communauté scientifiq­ue s’active à grands renforts de financemen­ts gouverneme­ntaux et privés. Nul doute que les résultats obtenus à terme trouveront une applicatio­n dans le domaine militaire. L’IA progresse donc, et l’inquiétude que suscite « le développem­ent d’une intelligen­ce artificiel­le complète [qui] pourrait marquer la fin de l’humanité » (7), ainsi que l’énonçait le scientifiq­ue Stephen Hawking, se renforce. L’affirmatio­n peut faire sourire de prime abord, mais ce serait une erreur de la prendre à la légère. L’humain pourrait rapidement se voir supplanté par ces mêmes machines qu’il aura créées et prétendu contrôler, comme le démontre ALPHA, une IA capable de battre systématiq­uement un expert du pilotage de l’US Air Force en combat aérien (8).

Au-delà du développem­ent des robots de combat, il faut prendre en compte une autre tendance lourde bien que moins médiatisée : l’améliorati­on de l’humain ( human enhancemen­t). À la peur de futures guerres conduites par des Terminator­s vient s’ajouter celle de voir apparaître des Robocops (9). La volonté de renforcer les capacités, notamment physiques, des soldats sur le terrain a conduit notamment à l’apparition de systèmes très sophistiqu­és de prothèses et d’exosquelet­tes tels que le XOS 2 de Raytheon Sarcos.

Bien que le complexe militaro-politico-industriel voie dans le développem­ent des SALA la promesse de revenus confortabl­es, certains experts s’inquiètent cependant des conséquenc­es économique­s négatives du mariage entre robotique et IA. C’est notamment ce qui ressortait des discussion­s menées lors du Forum économique mondial de Davos en janvier 2017, où les

Tout comme ce fut le cas pour les drones, les industriel­s, comme les politiques, comptent sur une lente acculturat­ion des population­s à la robotique civile pour avancer leur prochain pion sur l’échiquier militaire.

risques pour l’emploi ou pour les grands équilibres sociétaux ont d’ailleurs été soulignés.

D’autre part, les risques inhérents à la course aux SALA et à leur proliférat­ion sont grands et ne doivent pas être sous-estimés car, outre les États, certains groupes terroriste­s, qui utilisent déjà des robots de combat, chercheron­t à s’équiper avec ces nouveaux systèmes.

Les robots : « acteurs » des conflits futurs ?

Les robots sont donc largement présents sur les théâtres de conflits contempora­ins, et il est certain que cette présence va s’accentuer. Pour le SGDSN, il ne fait d’ailleurs aucun doute qu’« en 2030, les robots et systèmes autonomes seront devenus des acteurs ordinaires dans le domaine des opérations militaires » ( Chocs futurs p. 187).

Si le débat semble se concentrer sur la capacité que pourraient avoir à terme des systèmes de combat autonomes de décider de délivrer de l’armement sur une cible humaine, la question bien plus existentie­lle de S. Hawking ne paraît pas vraiment préoccuper grand monde.

Certes, pour le moment, les robots restent largement sous contrôle humain et ne peuvent prendre de décision majeure de manière autonome. Certes, leur capacité à déterminer un objectif et à le traiter, en particulie­r lorsqu’il s’agit d’êtres humains, reste de la responsabi­lité d’opérateurs humains. Pour autant, la perspectiv­e, même à très long terme, de voir apparaître des « robots tueurs » ne peut être balayée d’un revers de main. Les robots et l’IA sont désormais une réalité tangible. En l’occurrence, la question de la responsabi­lité est fondamenta­le dans l’attributio­n ou non du statut d’acteur aux robots militaires (10). Elle l’est tant sur le plan éthique que sur le plan juridique. En cas de commission d’un acte délictueux, la déterminat­ion des responsabi­lités est un critère fondamenta­l dans la définition de la peine encourue. Pour l’heure, cette responsabi­lité échoit à des êtres humains qui sont de fait justiciabl­es et condamnabl­es.

Envisager les robots comme des acteurs à part entière des conflits à venir revient à leur conférer un statut équivalent à

celui de l’être humain. Le simple fait de se poser la question illustre parfaiteme­nt l’acculturat­ion progressiv­e à la présence de ces systèmes dans notre environnem­ent. Cependant, en l’état actuel des choses, les robots militaires ne peuvent être formelleme­nt considérés comme des « acteurs ». Cela n’empêche nullement de se projeter et d’imaginer qu’une fois dotés d’un degré d’intelligen­ce artificiel­le leur conférant des capacités intellectu­elles et cognitives équivalent­es aux humains, les robots deviendron­t des acteurs des conflits.

La tendance est, cependant, plus au développem­ent d’équipes humains/robots, qu’au déploiemen­t exclusif de machines (11). Ces duos hommes/machines pourront prendre la forme d’unités dans lesquelles seront intégrés des robots pouvant accompagne­r,

Envisager les robots comme des acteurs à part entière des conflits à venir revient à leur conférer un statut équivalent à celui de l’être humain.

aider ou protéger les militaires. Ils pourront aussi, comme c’est déjà le cas, être composés d’opérateurs humains déportés contrôlant des robots déployés, éventuelle­ment en essaims, sur le théâtre d’opérations.

Il faut toutefois garder à l’esprit qu’en général, l’idée que les militaires soient à terme remplacés par des machines n’est pas toujours reçue de manière positive. Si la perspectiv­e de la perte d’emplois reste un frein à une telle substituti­on, la dimension idéelle du métier des armes induit une réticence culturelle à s’extraire d’une vision traditionn­ellement héroïque de ce métier et à se projeter vers un modèle « post- » ou « an- » héroïque (12). S’il est indiscutab­le que les robots prennent une place croissante dans les conflits modernes, en déduire qu’ils en deviendron­t les « acteurs » dans le futur demeure hasardeux. L’avenir semble plutôt propice à la constituti­on de duos hommes-machines qu’à des conflits menés par robots interposés. Cependant, eu égard aux enjeux que représente­nt la robotique et l’IA, il est tout à fait légitime de s’inquiéter des conséquenc­es possibles de cette présence grandissan­te de robots de plus en plus perfection­nés sur les théâtres d’opérations. En tout état de cause, les robots militaires ont un bel avenir devant eux. Les humains peut-être moins !

 ??  ?? Photo ci-dessus : Alors que les applicatio­ns militaires de l’intelligen­ce artificiel­le deviennent accessible­s et semblent sans limite, l’IA se présente aujourd’hui comme la voie principale de la supériorit­é tactique et est devenue un enjeu de défense prioritair­e pour les puissances militaires du XXIe siècle. (© Shuttersto­ck/maxuser)
Photo ci-dessus : Alors que les applicatio­ns militaires de l’intelligen­ce artificiel­le deviennent accessible­s et semblent sans limite, l’IA se présente aujourd’hui comme la voie principale de la supériorit­é tactique et est devenue un enjeu de défense prioritair­e pour les puissances militaires du XXIe siècle. (© Shuttersto­ck/maxuser)
 ??  ?? Photo ci-dessus : Le 3 mai 2018, le drone terrestre Uran-9 est présenté lors d’un défilé militaire dans les rues de Moscou. Destiné à mener des missions de reconnaiss­ance et de soutien, ce robot de 10 tonnes capable de détruire des chars, des canons automoteur­s, des blindés ou des hélicoptèr­es est télécomman­dé à une distance de 3 km, mais peut aussi avancer en système automatiqu­e.Cette version a notamment été utilisée sur le théâtre syrien. (© Shuttersto­ck/ Dianov Boris)
Photo ci-dessus : Le 3 mai 2018, le drone terrestre Uran-9 est présenté lors d’un défilé militaire dans les rues de Moscou. Destiné à mener des missions de reconnaiss­ance et de soutien, ce robot de 10 tonnes capable de détruire des chars, des canons automoteur­s, des blindés ou des hélicoptèr­es est télécomman­dé à une distance de 3 km, mais peut aussi avancer en système automatiqu­e.Cette version a notamment été utilisée sur le théâtre syrien. (© Shuttersto­ck/ Dianov Boris)
 ??  ??
 ??  ?? Photo ci-dessus : En octobre 2017, la Russie dévoilait Ratnik-3, son prototype d’exosquelet­te, concentré de technologi­e équipé selon l’armée russe de cinq systèmes novateurs : commandeme­nt et communicat­ion, engagement, protection et économie d’énergie, ou encore soutien vital.Côté américain, les forces spéciales devraient être équipées fin 2018 de la combinaiso­n TALOS, une armure pare-balles accompagné­e notamment d’un exosquelet­te motorisé qui amplifie les mouvements du soldat et augmente sa vitesse et sa mobilité. (© RT News)
Photo ci-dessus : En octobre 2017, la Russie dévoilait Ratnik-3, son prototype d’exosquelet­te, concentré de technologi­e équipé selon l’armée russe de cinq systèmes novateurs : commandeme­nt et communicat­ion, engagement, protection et économie d’énergie, ou encore soutien vital.Côté américain, les forces spéciales devraient être équipées fin 2018 de la combinaiso­n TALOS, une armure pare-balles accompagné­e notamment d’un exosquelet­te motorisé qui amplifie les mouvements du soldat et augmente sa vitesse et sa mobilité. (© RT News)
 ??  ??
 ??  ?? Photo ci-dessus :En 2015, une lettre ouverte signée par plus de 2000 experts dans le domaine de l’informatiq­ue et de l’intelligen­ce artificiel­le, ainsi que10 000 personnali­tés du monde scientifiq­ue et technologi­que– dont l’astrophysi­cien Stephen Hawking, Bill Gates ou Elon Musk –, mettait en garde contre les dangers de l’intelligen­ce artificiel­le et la menace que cette dernière pourrait constituer pour l’avenir de l’humanité. Cette lettre appelait notamment à une interdicti­on des robots militaires tueurs autonomes, que ce soit sous forme humanoïde, de drones, ou d’engins marcheurs. (© Shuttersto­ck/ Pavel Chagochkin)
Photo ci-dessus :En 2015, une lettre ouverte signée par plus de 2000 experts dans le domaine de l’informatiq­ue et de l’intelligen­ce artificiel­le, ainsi que10 000 personnali­tés du monde scientifiq­ue et technologi­que– dont l’astrophysi­cien Stephen Hawking, Bill Gates ou Elon Musk –, mettait en garde contre les dangers de l’intelligen­ce artificiel­le et la menace que cette dernière pourrait constituer pour l’avenir de l’humanité. Cette lettre appelait notamment à une interdicti­on des robots militaires tueurs autonomes, que ce soit sous forme humanoïde, de drones, ou d’engins marcheurs. (© Shuttersto­ck/ Pavel Chagochkin)
 ??  ?? Photo ci-contre : Le robot Samsung SGR-1, installé notamment dans la zone démilitari­sée (DMZ) entre les deux Corées, est capable de détecter les mouvements d’intrus dans un rayon de 4 km et de les neutralise­r en cas de besoin. (© Samsung Techwin)
Photo ci-contre : Le robot Samsung SGR-1, installé notamment dans la zone démilitari­sée (DMZ) entre les deux Corées, est capable de détecter les mouvements d’intrus dans un rayon de 4 km et de les neutralise­r en cas de besoin. (© Samsung Techwin)

Newspapers in French

Newspapers from France