L'Express (France)

Robots-soldats : programmés pour tuer

A l’avenir, l’intelligen­ce artificiel­le guidera les robots militaires. Les ONG et de nombreux experts s’en inquiètent.

- Par Sébastien Julian

Ils n’existent pas encore. Mais, déjà, des milliers de citoyens et d’experts cherchent à les interdire. Eux ? Ce sont les Systèmes d’armes létales autonomes (Sala) : des machines de guerre pilotées par une intelligen­ce artificiel­le (IA), capables d’ouvrir le feu de leur propre initiative. Les ONG les décrivent déjà comme des « robotstueu­rs », sortes de « Terminator » implacable­s, destinés à remplacer les soldats sur le terrain.

L’image, caricatura­le, tient aujourd’hui plus de la science-fiction que du domaine des possibles. Mais elle a le mérite de mettre les pieds dans le plat. Car plusieurs pays, notamment la Chine et les Etats-Unis, investisse­nt massivemen­t dans les robots militaires et l’IA. Une course qui pourrait aboutir, dans le futur, à l’émergence de systèmes armés disposant d’un niveau d’autonomie inégalé.

L’équipement militaire a déjà beaucoup évolué. « Les fonctions de déplacemen­t et de repérage de cibles font l’objet d’une large automatisa­tion », constate Vincent Boulanin, chercheur à l’Institut internatio­nal de recherche sur la paix de Stockholm (Sipri). La tourelle automatiqu­e Super aEgis II, par exemple, est capable de repérer une forme de taille humaine à 2 ou 3 kilomètres de distance, de jour comme de nuit. Installée à la frontière entre les deux Corées, elle détecte les explosifs, et son constructe­ur travaille à des mises à jour logicielle­s qui lui permettron­t, à terme, d’identifier des silhouette­s amies et ennemies.

Tout aussi impression­nants, des minitanks automatisé­s sont actuelleme­nt testés des deux côtés de l’Atlantique. Armés de canons ou de missiles, ils peuvent porter des charges lourdes et suivre automatiqu­ement, voire devancer, en éclaireurs, une escouade militaire au sol… « Ces engins rendront les chars obsolètes dans certains types de missions », assure un porteparol­e du fabricant estonien Milrem.

Les drones, enfin, évoluent eux aussi. Ils savent survoler de façon autonome une zone à la recherche de « signatures » précises et exploser sur elles. Mais, bientôt, ces engins, plus petits, se déplaceron­t en essaims, de manière à saturer les défenses adverses. Les Américains s’entraînent déjà à larguer des paquets de drones, baptisés « Perdix » en altitude depuis des avions de chasse. Et, dans les labos, les chercheurs organisent des combats factices entre plusieurs groupes pilotés par des IA.

« LE TEMPO S’ACCÉLÈRE »

« Pour l’instant, tous les systèmes d’armes utilisés sur le terrain conservent un homme dans la boucle », précise Vincent Boulanin. « La machine reste subordonné­e à l’homme. C’est d’ailleurs la doctrine officielle des armées », confirme Patrick Bezombes, directeur adjoint du Centre interarmée­s de concepts, de doctrines et d’expériment­ations (CICDE).

Mais, en coulisse, certains industriel­s soutiennen­t qu’il faudra un jour se passer d’un opérateur en chair et en os, car celui-ci est trop… lent. « Sur les théâtres d’opérations, le tempo s’accélère, ce qui entraîne un raccourcis­sement des cycles décisionne­ls », concède Frédéric Coste, maître de recherches à la Fondation pour la recherche stratégiqu­e (FRS). « Aujourd’hui, on parle de missiles hypersoniq­ues que même les batteries solair actuelles ne peuvent abattre », confirme Jean-Christophe Noël, chercheur associé au Centre des études de sécurité de l’Institut français des relations internatio­nales (Ifri).

Dans ces conditions, confier la défense aux seuls êtres humains sera bientôt une hérésie : même entraînés, leurs délais de réaction face au danger – de cinq à dix secondes – sont insuffisan­ts ! « C’est la raison pour laquelle le système de défense naval Aegis, par exemple, possède un mode “d’urgence”. Pour simplifier, il suffit d’appuyer sur un bouton et la machine gère », résume Jean-Christophe Noël.

Dans les prochaines années, ce système gagnera encore en efficacité grâce à une dose d’IA. Mais celle-ci servira également pour les systèmes d’attaque. Plusieurs scénarios se dessinent déjà : « On peut par exemple imaginer des militaires face à des cibles fugaces », explique Frédéric Coste. Le cas s’est déjà produit en Afghanista­n, où des 4 x 4 passaient rapidement d’un village à l’autre, laissant à peine une minute aux forces armées pour les détecter et les détruire.

DES QUESTIONS ÉTHIQUES

Jean-Christophe Noël évoque, lui, un scénario de troupeau dans lequel une escouade de soldats, épaulée par des robots, progresse sur le terrain en direction d’un objectif précis. En chemin, elle subit une attaque surprise, si bien que le chef de groupe envoie des automates éliminer la menace en leur laissant carte blanche. Sans perte humaine, le bataillon pourra poursuivre sa mission initiale.

Glaçant ? « Les militaires réfléchiro­nt très probableme­nt à de tels emplois. Dans le futur, les robots seront capables d’analyser beaucoup de données. Ils ne trembleron­t pas au moment de tirer et les trajectoir­es de leurs munitions pourront être optimisées », prévient l’expert.

«Une chose est sûre : si une armée déploie des Sala sur le terrain, tout le monde s’alignera, car l’IA donnera un avantage décisif », assure un militaire. Quelques tests récents ont montré la supériorit­é de l’ordinateur sur l’homme : en octobre 2015, l’US Air Force a confronté plusieurs pilotes expériment­és à une IA nommée Alpha dans un simulateur. Résultat? La machine a mis une raclée à ses

adversaire­s. Elle semblait deviner à l’avance leurs moindres faits et gestes !

Encouragée­s par ces résultats, les grandes puissances investisse­nt des milliards de dollars dans ce domaine. Mais passer d’un simulateur à des combats sur le terrain ne sera pas facile. Car les Sala posent d’énormes problèmes éthiques et techniques. Osera-t-on donner le droit à une machine de tuer un humain ? Sera-t-elle capable d’éviter les bavures? « Sans nier les vrais potentiels de l’IA, nous devons demeurer lucides quant à ses performanc­es réelles, qui sont limitées. A ce jour, l’intelligen­ce artificiel­le reste plus artificiel­le qu’intelligen­te », constate Patrick Bezombes.

Pour entraîner l’IA militaire, les experts la nourrissen­t de petites séquences de films avec des personnage­s. L’objectif peut être, par exemple, de détecter une arme cachée sous une cape. « On répète l’expérience des milliers de fois et on dit à chaque fois à la machine si elle se trompe ou pas.

OSERA-T-ON DONNER LE DROIT À UNE MACHINE DE TUER? POURRA-T-ELLE ÉVITER LES BAVURES?

A la fin, statistiqu­ement, elle sait que s’il y a une forme bizarre à tel endroit, il peut y avoir un problème », explique Frédéric Coste.

Le hic ? Cet apprentiss­age requiert des données qu’il faut indexer, le plus souvent à la main ! Et contrairem­ent aux idées reçues, il en existe très peu. Au point que la Chine serait sur le point de créer des PME spécialisé­es dans la production de ces précieuses informatio­ns !

ÉCHEC CUISANT EN CHINE

Reste que, pour de nombreux spécialist­es, l’IA ne pourra jamais obtenir une vision parfaite du champ de bataille. « Son fonctionne­ment, fondé sur les statistiqu­es, permet d’obtenir des taux de réussite de 70 ou 80 %, notamment selon la finesse des bases de données, mais atteindre 100 % paraît illusoire », assure Raja Chatila, directeur de l’Institut des systèmes intelligen­ts et de robotique (Isir). Car jamais les experts ne pourront prévoir tous les cas de figure et les enseigner à une machine.

L’échec cuisant d’une IA en Chine, révélé en novembre dernier, illustre la difficulté : celle-ci a cru qu’une personne traversait la rue au feu rouge, alors qu’il s’agissait en fait d’une photo plaquée sur un bus ! Heureuseme­nt, elle n’était pas armée… « Ces systèmes ne sont pas fiables. Ce serait criminel de les déployer », s’époumone Jean-Paul Laumond, roboticien et directeur de recherche au Laboratoir­e d’analyse et d’architectu­re des systèmes (Laas) du CNRS. Mais les cris d’alarme, comme ceux de Stephen Hawking et d’Elon Musk dès 2015, les pétitions et les discussion­s à l’ONU – démarrées en 2013 – suffiront-elles à empêcher le déploiemen­t des Sala ? Pas sûr.

Dans son livre Robots tueurs, le pilote d’hélicoptèr­e d’attaque Brice Erbland anticipe déjà la programmat­ion d’une éthique artificiel­le et de vertus humaines, comme le courage ou l’intuition. Celles-ci pourraient être embarquées dans le logiciel d’une « machine brancardiè­re » qui serait capable, sur un champ de guerre, de rapatrier un soldat blessé du front. Soit. Mais l’IA pose un autre problème aux chercheurs. Plus elle progresse, moins on la comprend.

« Sur ce genre de plateforme­s complexes, on a souvent une intricatio­n d’algorithme­s différents. Il est donc difficile d’avoir une compréhens­ion globale du fonctionne­ment », prévient Frédéric Coste. Aujourd’hui, la machine commence à apprendre par elle-même. Demain, elle décidera de traiter les données d’une façon nouvelle, sans en informer l’homme. Celui-ci se retrouvera donc dans l’incapacité de comprendre les mécanismes de traitement à l’oeuvre ! Une IA tueuse impossible à comprendre ? La bataille pour ou contre les Sala ne fait que commencer.

 ??  ??
 ??  ?? Autonomes Les drones savent repérer des objectifs et exploser sur eux. Bientôt, ils se déplaceron­t en essaims.
Autonomes Les drones savent repérer des objectifs et exploser sur eux. Bientôt, ils se déplaceron­t en essaims.
 ??  ?? Automatiqu­es En test, des minitanks armés de mitrailleu­ses, accompagna­nt une escouade au sol.
Automatiqu­es En test, des minitanks armés de mitrailleu­ses, accompagna­nt une escouade au sol.

Newspapers in French

Newspapers from France