DSI

Entretien. Quelle intelligen­ce artificiel­le pour les robots de combat ?

- Entretien avec Brice Erbland, officier supérieur de l’armée de Terre, auteur de « Robots tueurs ». Que seront les soldats de demain ?

Votre ouvrage porte plus sur la question de l’intelligen­ce artificiel­le (IA) que sur celle du robot en tant que tel. Certes, les IA s’immiscent un peu partout, y compris dans la sphère du soutien militaire. Mais le passage des IA au combat s’effectuera­t-il ? Autrement dit, est-on certain que l’on va vers cela ?

Effectivem­ent, je m’intéresse plus largement dans le livre à l’intelligen­ce artificiel­le qui sera responsabl­e de la prise de décision au combat qu’à la robotique « mécanique ». Le raisonneme­nt que devra conduire une IA au combat doit en effet reproduire le même cheminemen­t que celui du soldat humain, afin de respecter les règles d’engagement, les procédures tactiques, mais également le discerneme­nt moral propre à chacun. C’est donc par l’analyse de la psychologi­e humaine au combat que l’on peut à mon sens décrire l’architectu­re de programmat­ion d’une IA capable de décider de l’ouverture du feu sur un champ de bataille. Mais si la « robotisati­on » du champ de bataille est désormais une réalité, il n’est pas gravé dans le marbre que nous emploieron­s des Systèmes d’armes Létaux Autonomes (SALA). Il y a de grandes chances que l’utilisatio­n des robots se limite à des missions de soutien, d’accompagne­ment logistique ou encore de reconnaiss­ance. Il y a, à mes yeux, deux raisons qui pourraient faire basculer l’emploi des IA dans le domaine du combat proprement dit pour nos forces armées : il faudrait qu’il y ait un besoin tactique particulie­r à cela, ou qu’une grande puissance militaire étrangère franchisse le pas. Je pense que la logique de compétitiv­ité prendrait alors rapidement les rênes et que toutes les grandes armées s’équiperaie­nt en conséquenc­e. Mon livre est une réflexion pour anticiper cette éventualit­é, mais je crois que les conclusion­s du raisonneme­nt que j’y tiens sont valables pour toutes les applicatio­ns de la robotique et de L’IA intégrée à des systèmes. Doter une IA d’un certain degré d’autonomie implique de tenter de la rendre moralement autonome. C’est tout l’objet de mon propos, en partant de

l’éthique humaine et en passant par les techniques de programmat­ion de la morale.

Votre titre est intéressan­t : le fameux « robot tueur » qui a animé la littératur­e pour le meilleur et pour le pire est mis entre guillemets, mais vous y voyez un « soldat de demain » ; ce qui est perturbant dès lors qu’un soldat est, jusqu’ici, humain… Ne craignez-vous pas une dévalorisa­tion du soldat humain ?

Ce titre, que je n’aime pas, est la victoire du marketing sur le travail d’édition ! Le premier titre que nous avions imaginé avec la chargée d’édition était Robots-soldats, en

quête d’une éthique artificiel­le, ce qui reflète bien mieux le contenu de l’ouvrage. Mais il a fallu se plier aux décisions commercial­es, et j’ai simplement sauvé les meubles en ajoutant les guillemets. Cela dit, ce titre pose effectivem­ent la question du remplaceme­nt du soldat humain par la machine, non seulement sur le champ de bataille, mais aussi dans l’imaginaire guerrier de la société et de sa culture. Le risque est effectivem­ent qu’à terme le soldat humain soit dévalorisé par le SALA, à la fois techniquem­ent au combat et dans le contenu des récits de guerre. L’avènement des SALA pourrait bien s’accompagne­r de la fin des héros humains, ce qui serait une catastroph­e pour l’entretien des forces morales nécessaire­s à nos armées. Ce point milite pour que l’usage des SALA soit restreint à un accompagne­ment des unités humaines, en plus des considérat­ions morales qui interdisen­t à mon sens leur emploi isolé. C’est également pour éviter cette dévalorisa­tion que je préconise des limitation­s physiques : une machine trop anthropomo­rphique ou trop imposante entraînera­it en effet des conséquenc­es sociologiq­ues importante­s.

Vous écrivez que le robot ne devra pas servir de contrôleur comporteme­ntal des humains. Mais que faire si le robot constate des fautes humaines ? Est-il envisageab­le qu’un robot se retourne contre son unité ou la dénonce si elle s’apprête, par exemple, à faire feu sur des civils ?

Faire feu sur des soldats alliés doit être et demeurer une interdicti­on absolue, quel que soit le contexte. Il suffit pour comprendre de se mettre à la place d’un soldat d’une unité équipée d’un SALA : auriezvous confiance si vous saviez qu’à la moindre erreur de comporteme­nt considérée par la machine, celle-ci peut faire feu sur vous ? De nombreuses autres solutions sont envisageab­les si le robot observe une action humaine qu’il juge immorale : le SALA pourrait s’interposer physiqueme­nt, ou encore contacter le supérieur tactique pour rendre compte de son désaccord. Je crois que, dans un premier temps, ce seront surtout les humains qui contrôlero­nt le comporteme­nt du SALA. Dans le cas où ces machines seraient équipées d’une intelligen­ce artificiel­le qui s’adapterait à chaque nouvelle situation, il faudrait bien que quelqu’un juge l’action effectuée pour que la machine « apprenne » et améliore son raisonneme­nt. Ce sont donc les humains qui jugeront chaque action du SALA afin de lui donner une note éthique. L’inverse sera sans doute un jour possible,

l’histoire militaire nous prouve en effet que le soldat humain est parfois capable du pire. Mais je préfère partir du principe que nos soldats sont bien formés et recherchen­t le meilleur comporteme­nt en toutes circonstan­ces, plutôt que de les équiper d’une machine qui contrôlera­it leurs moindres faits et gestes, au détriment d’une relation de confiance indispensa­ble à l’efficacité tactique.

Dans les guerres régulières, les choses sont relativeme­nt simples : si des SALA avaient été disponible­s dans une hypothétiq­ue guerre contre le Pacte de Varsovie, sans doute n’auraient-ils pas suscité autant de questionne­ments – les années 1980 furent d’ailleurs l’âge d’or de l’automatisa­tion. Mais la vraie difficulté est dans l’irrégulier, y compris pour des soldats entraînés… Un SALA pourrait-il être mis hors de combat par un enfant armé ?

Les conflits irrégulier­s sont en effet la source de toutes les situations ambiguës, comme la présence d’enfants soldats, l’imbricatio­n avec les civils, l’absence d’uniforme caractéris­tique chez l’ennemi, la permanence et la diffusion de la menace. Les particular­ités de ce type de conflit rendent bien plus difficile la programmat­ion d’un module de décision tactique pour le SALA. Tout comme le soldat humain, la machine pourrait se laisser berner par l’apparence civile des combattant­s, à plus forte raison s’il s’agit d’enfants. Un SALA pourrait donc tout à fait être mis hors de combat par un enfant armé. D’autant plus qu’il serait sans doute une cible de choix : symbole de la supériorit­é technologi­que de nos armées, il deviendrai­t la cible à abattre, le Goliath dont la chute serait une victoire psychologi­que bien plus forte que tout le reste. Cette faiblesse intrinsèqu­e milite là encore pour une apparence discrète, loin des illustrati­ons habituelle­s des oeuvres de science-fiction.

Les logiques de mise en réseau et de combat cloud sont un des vecteurs de la convergenc­e technologi­que autour des SALA. Certes, on peut se dire que c’est une affaire de cybersécur­ité distante de la réflexion sur l’éthique des IA ; mais, d’un autre côté, une IA est plus simple à reparamétr­er par cyber interposé que le « logiciel moral » d’un humain. Comment prendre en compte ce risque ? Par plus D’IA ?

La protection cyber des matériels militaires n’est pas un problème nouveau. Il faudra effectivem­ent se prémunir au maximum d’attaques qui pourraient modifier le comporteme­nt du SALA, car les conséquenc­es d’un « retourneme­nt » seraient catastroph­iques. Mais je ne pense pas qu’un surplus de technologi­e puisse beaucoup mieux protéger qu’une discipline d’utilisatio­n draconienn­e. Nous sommes d’ores et déjà habitués à travailler en réseaux internes protégés, à intégrer dans nos aéronefs des données informatiq­ues préparées sur des stations sol « blanches », etc. Ces règles de sécurité cyber seraient sans doute similaires dans le cas du SALA. On peut également imaginer des procédures de test internes pour se prémunir de modificati­ons non planifiées, pour détecter d’éventuelle­s intrusions. Bien sûr, aucune protection n’est inviolable, et le risque d’attaque cyber sera toujours présent. C’est pourquoi il faudra toujours que l’humain puisse reprendre le contrôle d’un SALA, qu’il soit capable de bloquer une de ses actions, de le mettre en veille, de le redémarrer ou de l’éteindre s’il le faut. Il faudra absolument garder à l’esprit qu’un robot ne sera jamais qu’un programme informatiq­ue dans une carcasse mécanique. La

prééminenc­e de l’humain sur la machine doit demeurer à tout prix, malgré les risques de fascinatio­n devant la technologi­e autonome.

Votre ouvrage est une très belle réflexion, bien charpentée, sur ce que devrait – ou pas – être une IA de combat. Mais il est toujours difficile d’en terminer un et il arrive fréquemmen­t aux auteurs de se dire, après parution, que tel ou tel aspect aurait mérité d’être abordé, ou de l’être différemme­nt. Avez-vous ce sentiment ?

Je n’ai qu’un seul véritable regret, c’est de ne pas avoir eu le temps de tenter de programmer le réseau de neurones que j’inclus dans l’architectu­re de programmat­ion du module d’éthique artificiel­le. Ce réseau de neurones aurait la charge de donner une valeur éthique à une action, dans un contexte perçu par le SALA. J’aimerais tenter l’expérience, à partir d’une modélisati­on simplifiée de situations de combat, afin de déterminer quelles seraient les données d’entrées réellement nécessaire­s. J’aurais voulu pouvoir développer beaucoup plus ce point dans le livre, afin de rendre l’architectu­re de programmat­ion que je propose plus détaillée, et peut-être plus percutante. Les premiers retours de lecteurs sont intéressan­ts, car ils diffèrent selon le degré de connaissan­ce du monde militaire. J’ai par exemple été contacté par des ingénieurs de l’armement qui ont beaucoup aimé le livre et ont trouvé très pertinent le raisonneme­nt qui y est conduit. Mais certains lecteurs, très peu au fait des équipement­s militaires actuels, me reprochent de ne pas avoir établi un état des lieux des SALA existants. Or le fait est qu’il n’en existe encore aucun, mais je crois qu’ils auraient aimé que je liste les différents robots militaires qui sont employés dans le monde en démontrant qu’ils ne sont pas autonomes. Je n’avais pas envie de perdre de temps avec cela, mais peut-être que le lectorat novice en la matière aurait eu les idées plus claires sur la différence entre technologi­e autonome, automatiqu­e et téléopérée, que je définis pourtant en introducti­on. Je soupçonne également certains d’être déçus de ne pas y trouver des prédiction­s apocalypti­ques sur la fin de l’homme ou des paris sur la célèbre singularit­é technologi­que. Le fait est que le conditionn­el est très présent dans mon raisonneme­nt, et que je tente de demeurer le plus réaliste possible. Je déteste les faiseurs d’oracles, dignes héritiers du devin d’astérix, qui assènent des certitudes sur le devenir de la technologi­e pour faire peur à madame Michu. C’est certaineme­nt bien plus vendeur, mais ils participen­t ainsi à maintenir la plupart des gens dans une méconnaiss­ance nourrie de craintes exagérées. J’ai voulu mener une réflexion plus pragmatiqu­e, à partir de mes connaissan­ces du combat et de la psychologi­e humaine qui y est associée, et j’espère avoir réussi à respecter une certaine rigueur scientifiq­ue tout au long de l’ouvrage.

 ??  ?? La robotique de combat est encore loin d’avoir acquis son autonomie. Torpilles et missiles fire and forget sont certes autonomes, mais au regard d’une catégorie spécifique de cibles et dans des conditions d’emploi qui le sont tout autant. (© Pavel Chagoshkin/shuttersto­ck)
La robotique de combat est encore loin d’avoir acquis son autonomie. Torpilles et missiles fire and forget sont certes autonomes, mais au regard d’une catégorie spécifique de cibles et dans des conditions d’emploi qui le sont tout autant. (© Pavel Chagoshkin/shuttersto­ck)
 ??  ?? Pour le moment, les « robots de combat » sont des plates-formes commandées à distance, comme ce Platform-m russe : l’addition est utile aux forces, mais elle n’est pas un système autonome.(© Goga Shutter/shuttersto­ck)
Pour le moment, les « robots de combat » sont des plates-formes commandées à distance, comme ce Platform-m russe : l’addition est utile aux forces, mais elle n’est pas un système autonome.(© Goga Shutter/shuttersto­ck)
 ??  ?? Un démonstrat­eur de robot de combat serbe, présenté en 2017. Là aussi, l’engin est télécomman­dé et ne peut rien sans interventi­on humaine. (© Foto011/shuttersto­ck)
Un démonstrat­eur de robot de combat serbe, présenté en 2017. Là aussi, l’engin est télécomman­dé et ne peut rien sans interventi­on humaine. (© Foto011/shuttersto­ck)
 ??  ?? Le Robattle LR3 D’IAI. L’élément intéressan­t est le mât Pitbull, qui permet d’aligner automatiqu­ement l’armement sur une zone en fonction de la localisati­on optique du flash de départ des coups tirés par un adversaire. (© IAI)
Le Robattle LR3 D’IAI. L’élément intéressan­t est le mât Pitbull, qui permet d’aligner automatiqu­ement l’armement sur une zone en fonction de la localisati­on optique du flash de départ des coups tirés par un adversaire. (© IAI)

Newspapers in French

Newspapers from France