QUELLE GUERRE POUR L’IN­TEL­LI­GENCE AR­TI­FI­CIELLE ? Jo­seph HEN­RO­TIN

DSI Hors-Série - - SOMMAIRE - Jo­seph HEN­RO­TIN Char­gé de re­cherche au CAPRI. Pho­to ci-des­sus : Ce que pour­raient don­ner les ef­fets d’une fu­sion de don­nées pro­ve­nant d’une IA à tra­vers un sys­tème de réa­li­té aug­men­tée du fan­tas­sin. (© Uni­ver­si­ty of Ma­ry­land)

Les dé­bats de ces dix der­nières an­nées concer­nant les tech­no­lo­gies mi­li­taires fu­tures ont fait la part belle à la ro­bo­tique, in­ner­vant des sec­teurs tels que l’in­gé­nie­rie, la tac­tique ou en­core l’éthique. Mais force est aus­si de consta­ter que de­puis trois ans en­vi­ron, l’at­ten­tion se porte éga­le­ment de plus en plus sur l’in­tel­li­gence ar­ti­fi­cielle (IA). Mais pour quel bé­né­fice dans les forces ?

Les pro­grès technologiques en­re­gis­trés de même que les nou­velles ca­pa­ci­tés in­for­ma­tiques au­to­risent au­jourd’hui à s’in­ter­ro­ger sur la per­ti­nence de L’IA dans les forces mi­li­taires. Le thème est por­teur, que ce soit du point de vue du dé­bat aca­dé­mique ou en­core de ce­lui des bud­gets. Comme dans le do­maine de la ro­bo­tique ce­pen­dant, il convient d’abord de prendre une dis­tance cri­tique avec l’ob­jet et les dé­bats, à au moins deux égards :

• d’une part, il semble né­ces­saire d’évi­ter toute forme de dé­ter­mi­nisme : les dé­bats de 2010 nous pro­met­taient une ro­bo­ti­sa­tion triom­phante, mais trois as­pects ont in­suf­fi­sam­ment été pris en consi­dé­ra­tion. D’abord, la guerre reste une af­faire po­li­tique – et donc in­trin­sè­que­ment hu­maine. La na­ture du conflit n’ayant pas été chan­gée par les moyens avec les­quels il est conduit, le ro­bot est un bien un moyen au ser­vice d’une fin, po­li­tique et donc hu­maine. En­suite, à l’ins­tar de tout ma­té­riel mi­li­taire, les ro­bots sont conçus et mis en oeuvre par des hu­mains dont les ac­tions et ré­ac­tions ne sont pas né­ces­sai­re­ment dé­ter­mi­nistes. En­fin, il faut em­pi­ri­que­ment consta­ter que la ro­bo­ti­sa­tion pro­mise est, dans les faits, en­core as­sez éloi­gnée : L’US Ar­my a, en fait, ré­duit le nombre de ses ro­bots après un pic d’uti­li­sa­tion vers 2008-2009 et les flottes aé­riennes sont loin d’être uni­que­ment com­po­sées de drones (1). Il convient donc d’être pru­dent afin d’évi­ter de trans­for­mer des dé­bats im­por­tants en ca­ri­ca­tures, ce qui vaut éga­le­ment pour la ques­tion de l’in­tel­li­gence ar­ti­fi­cielle ;

• d’autre part, les dé­bats sur les ro­bots ont ce­ci de com­mun avec ceux por­tant sur L’IA qu’ils omettent fré­quem­ment de définir leur ob­jet : de quoi parle-t-on exac­te­ment ? D’un ro­bot dé­mi­neur té­lé­com­man­dé? D’un por­teur d’arme lui aus­si té­lé­com­man­dé et qui consti­tue ce que l’on qua­li­fie dans les dé­bats de «ro­bot tueur»? Ou d’une ma­chine apte à prendre elle-même la dé­ci­sion d’en­ga­ger le feu ? La confu­sion, dom­ma­geable pour la qua­li­té et la per­ti­nence des tra­vaux et dé­bou­chant sur un tech­no-folk­lore omet­tant d’abor­der les vraies ques­tions(2), risque de se re­pro­duire dès lors qu’il est ques­tion D’IA.

Il convient d’être pru­dent afin d’évi­ter de trans­for­mer des dé­bats im­por­tants en ca­ri­ca­tures, ce qui vaut éga­le­ment pour la ques­tion de l’in­tel­li­gence ar­ti­fi­cielle.

LES FON­DA­MEN­TAUX RES­TENT VA­LABLES

Plu­tôt que de par­tir d’une base technologique, re­ve­nons aux fon­da­men­taux : la no­tion

d’in­tel­li­gence telle qu’uti­li­sée en psy­cho­lo­gie et dé­fi­nie par Pia­get ren­voie à la « fa­cul­té d’adap­ta­tion». Toute in­tel­li­gence, hu­maine comme ar­ti­fi­cielle, n’est donc pas gage, en soi, de «la dé­ci­sion la plus adap­tée» ou d’une «dé­ci­sion in­no­vante ». Et, de fac­to, la no­tion d’in­tel­li­gence ar­ti­fi­cielle est en­core très re­la­tive : un sys­tème comme le chat­bot Tay, conçu pour évo­luer et ap­prendre sur Twit­ter, a vu son compte sup­pri­mé après qu’il eut adop­té une rhé­to­rique na­zie en 24 heures. La lo­gique ac­tuel­le­ment re­te­nue pour les sys­tèmes les plus am­bi­tieux ren­voie en ef­fet au deep lear­ning et à leur ca­pa­ci­té à ap­prendre à tra­vers des «ré­seaux neu­ro­naux» ar­ti­fi­ciels fai­sant in­ter­agir des ca­pa­ci­tés in­for­ma­tiques dis­tri­buées. De fac­to, le sys­tème n’est in­tel­li­gent qu’en fonc­tion de ses al­go­rithmes de base et du mi­lieu dans le­quel il évo­lue. C’est en soi une li­mi­ta­tion dès lors que l’on parle d’usage d’une IA dans le do­maine mi­li­taire : quand juge-t-on qu’elle a at­teint un de­gré de ma­tu­ri­té opé­ra­tion­nelle suf­fi­sant pour rem­plir cor­rec­te­ment les tâches qu’on lui de­mande ? Ré­pondre à la ques­tion est d’au­tant plus dif­fi­cile que le com­por­te­ment des IA peut ne pas être ce­lui at­ten­du alors que les cri­tères d’éva­lua­tion d’un sol­dat ou d’une uni­té sont for­ma­li­sés. Lorsque Google a com­men­cé à tra­vailler sur une IA de­vant of­frir des tra­duc­tions plus per­ti­nentes que le sys­tème qu’il uti­li­sait alors, les in­gé­nieurs se sont aper­çus que le sys­tème in­ven­tait sa propre langue pour fa­ci­li­ter son tra­vail(3). D’un point de vue opé­ra­tion­nel, c’est sur­pre­nant, mais ef­fi­cient – du moins lorsque les ré­seaux per­mettent au pro­ces­sus de se réa­li­ser (4) – ; mais une fois ce­la ap­pli­qué au do­maine mi­li­taire, l’af­faire peut de­ve­nir pro­blé­ma­tique. Qu’une stra­té­gie don­née ne soit pas li­sible pour un ad­ver­saire est un bien­fait, mais qu’elle ne le soit pas pour nos stra­tèges est au­tre­ment plus pro­blé­ma­tique. La sur-in­tel­li­gence po­ten­tielle des IA sus­cite ain­si des ques­tions liées à leur uti­li­sa­tion dans le champ mi­li­taire. La RAND Cor­po­ra­tion s’in­ter­ro­geait ain­si sur l’usage des IA dans le do­maine nu­cléaire pour consta­ter que la dis­sua­sion fonc­tionne aus­si parce que ses opé­ra­teurs ne sont pas to­ta­le­ment ra­tion­nels. En consé­quence, une IA per­for­mante et trop ra­tion­nelle pour­rait être dé­sta­bi­li­sante (5).

De fac­to, par­ler de « guerre » re­vient à évo­quer l’in­cer­ti­tude, la fric­tion et le « brouillard de la guerre » en tant que ses condi­tions struc­tu­relles pre­mières. Tout le dé­ve­lop­pe­ment des forces armées de­puis leur ap­pa­ri­tion dans l’an­ti­qui­té peut être ré­su­mé comme la suc­ces­sion de ten­ta­tives plus ou moins heu­reuses per­met­tant de ra­tio­na­li­ser l’in­cer­ti­tude, de ré­duire les fric­tions et de per­cer le brouillard de la guerre. Dans ce pro­ces­sus, la pla­ni­fi­ca­tion, la dis­ci­pline, les dif­fé­rentes formes d’in­no­va­tion, les pro­cé­dures forment une al­chi­mie com­plexe. Or, des IA trop per­for­mantes ne fe­raient pas – comme toute tech­no­lo­gie – qu’ac­croître le risque d’ap­pa­ri­tion de nou­velles causes de fric­tions. Elles pour­raient éga­le­ment épais­sir le brouillard de la guerre, al­lant donc dans le sens op­po­sé de l’his­toire mi­li­taire. À cet égard, le pro­blème pre­mier n’est dé­jà plus ce­lui de la nu­mé­ri­sa­tion des forces, mais bien ce­lui d’une lo­gique d’évo­lu­tion des lo­gi­ciels se te­nant quelque part entre leur ca­pa­ci­té d’au­toap­pren­tis­sage et leur ca­pa­ci­té à res­pec­ter des règles fon­da­men­tales.

Or il existe bien un risque que « L’IA mange le lo­gi­ciel » – après que « les lo­gi­ciels au­ront man­gé le monde » (6) – et que les concep­teurs fi­nissent par s’af­fran­chir des règles, qu’elles soient éthiques ou liées à l’ef­fi­cience stra­té­gique (7). Les lo­giques de deep lear­ning sous-tendent, de fac­to, un af­fran­chis­se­ment des règles liées à la concep­tion des lo­gi­ciels. De ce point de vue, il semble par­ti­cu­liè­re­ment urgent que les mi­li­taires re­prennent le contrôle de la dé­fi­ni­tion des tech­no­lo­gies. La ques­tion est an­cienne au re­gard de la part prise par le sec­teur ci­vil (8) et elle anime no­tam­ment les dé­bats sur la per­ti­nence d’une DGA contrô­lée par des in­gé­nieurs de l’ar­me­ment par­fois dé­con­nec­tés des uti­li­sa­teurs mi­li­taires. Elle trouve un point d’ap­pli­ca­tion, comme tout pro­gramme mi­li­taire, dans la dé­fi­ni­tion de ca­hiers des charges où l’im­por­tant est au­tant l’ex­ploi­ta­tion d’un po­ten­tiel que sa maî­trise. Par­tant de là, qu’est-il pos­sible d’en­vi­sa­ger en ma­tière d’ap­pli­ca­tions de L’IA à l’ar­me­ment ter­restre, en sa­chant que toutes les pos­si­bi­li­tés en la ma­tière n’ont sans doute pas en­core été en­tre­vues ?

Qu’une stra­té­gie don­née ne soit pas li­sible pour un ad­ver­saire est un bien­fait, mais qu’elle ne le soit pas pour nos stra­tèges est au­tre­ment plus pro­blé­ma­tique. La sur-in­tel­li­gence po­ten­tielle des IA sus­cite ain­si des ques­tions liées à leur uti­li­sa­tion dans le champ mi­li­taire.

L’AP­PROCHE FONC­TION­NELLE ET L’IA

On peut ten­ter d’ap­pré­hen­der les ap­ports de L’IA sui­vant la dis­tinc­tion tra­di­tion­nelle entre sou­tien, ap­pui et com­bat. Ses pre­mières ap­pli­ca­tions pour­raient ain­si concer­ner une foule de fonc­tions en sou­tien des forces. Le cou­plage des IA aux tech­no­lo­gies d’af­fi­chage et aux ré­seaux pour­rait ain­si avoir un im­pact im­por­tant sur la ma­nière de conce­voir l’en­traî­ne­ment et la si­mu­la­tion, en of­frant des « ad­ver­saires ar­ti­fi­ciels » ne re­flé­tant pas ou peu nos propres modes de com­bat. En la ma­tière, les pre­mières ap­pli­ca­tions existent dé­jà et s’ap­puient sur les sys­tèmes qui per­mettent de battre les meilleurs joueurs d’échecs et,

sur­tout, de go. D’autres fonc­tion­na­li­tés en cours de dé­ve­lop­pe­ment pour le ci­vil pour­raient éga­le­ment of­frir des avan­tages en ma­tière de sta­bi­li­sa­tion et de ren­sei­gne­ment. Ce se­rait ty­pi­que­ment le cas de sys­tèmes de tra­duc­tion au­to­ma­tique pre­nant en compte les spé­ci­fi­ci­tés lan­ga­gières lo­cales ou le contexte dans le­quel une conver­sa­tion est te­nue.

Les IA pour­raient éga­le­ment faire ga­gner un temps pré­cieux en ma­tière ad­mi­nis­tra­tive – alors que les armées tendent à de­ve­nir de plus en plus pro­cé­du­rières en la ma­tière – avec la ré­dac­tion au­to­ma­tique de cour­riers ou en­core de comptes ren­dus, éven­tuel­le­ment re­trans­crits par les IA avec net­te­ment plus d’exac­ti­tude que les sys­tèmes de conver­sion ac­tuels de la voix en texte. D’autres ap­pli­ca­tions plus exo­tiques semblent éga­le­ment en­vi­sa­geables. La nu­mé­ri­sa­tion d’un grand nombre de re­vues, d’ou­vrages ou de comptes ren­dus pour­rait bou­le­ver­ser la ma­nière de faire de la re­cherche stra­té­gique et en his­toire mi­li­taire, en créant de gi­gan­tesques bases de don­nées vir­tuelles dans les­quelles les IA pour­raient éta­blir des cor­ré­la­tions ou re­pé­rer des si­mi­la­ri­tés. Les IA pour­raient aus­si jouer un rôle dans la concep­tion des sys­tèmes d’armes. D’un point de vue opé­ra­tion­nel ou éthique, ces ap­pli­ca­tions ne semblent guère po­ser de pro­blèmes.

L’usage de L’IA en ap­pui ne semble a prio­ri guère plus pro­blé­ma­tique. Le cou­plage entre ré­seaux, cap­teurs de plus en plus nom­breux et sys­tèmes in­for­ma­tiques pour­rait of­frir la ca­pa­ci­té à re­pé­rer dans le « big da­ta mi­li­tai­re­ment per­ti­nent» les in­for­ma­tions utiles. L’IA se­rait ain­si la « clé d’or » per­met­tant de ti­rer plei­ne­ment par­ti de la masse d’in­for­ma­tions tou­jours plus im­por­tante ar­ri­vant aux forces. À ce stade, il ne s’agit pas en­core d’ana­lyse, mais de son tra­vail pré­pa­ra­toire, en of­frant la pos­si­bi­li­té de créer des re­pré­sen­ta­tions ex­trê­me­ment fines, et mul­tis­pec­trales, d’un en­vi­ron­ne­ment don­né. Ces re­pré­sen­ta­tions, une fois dif­fu­sées aux com­bat­tants, laissent en­tre­voir des pos­si­bi­li­tés in­ouïes. On pour­rait ain­si ima­gi­ner une sec­tion d’in­fan­te­rie se dé­pla­çant et voyant s’af­fi­cher sur ses casques à réa­li­té aug­men­tée le po­si­tion­ne­ment des troupes amies et ad­verses, mais aus­si les grou­pe­ments de po­pu­la­tion ci­vile, les types de bâ­ti­ments (fonc­tion, ma­té­riaux, pré­sence de toxiques éven­tuels), les in­ter­pré­ta­tions des per­tur­ba­tions du spectre élec­tro­ma­gné­tique, etc. L’en­semble se­rait ra­fraî­chi au fur et à me­sure de l’ap­port de nou­veaux élé­ments – des in­for­ma­tions re­trou­vées dans des or­di­na­teurs ad­verses, par exemple. Cor­ré­la­ti­ve­ment, les IA pour­raient éga­le­ment of­frir des avan­tages si­mi­laires pour le ren­sei­gne­ment ou en­core pour la pla­ni­fi­ca­tion. Elles pour­raient aus­si avoir une in­ci­dence sur les mo­da­li­tés de com­bat. L’usage D’IA as­sez simples per­met­trait de contrô­ler le dé­pla­ce­ment des dif­fé­rents es­saims de ro­bots de sou­tien ou de re­con­nais­sance sus­cep­tibles

L’IA se­rait la «clé d’or » per­met­tant de ti­rer plei­ne­ment par­ti de la masse d’in­for­ma­tions tou­jours plus im­por­tante ar­ri­vant aux forces. À ce stade, il ne s’agit pas en­core d’ana­lyse, mais de son tra­vail pré­pa­ra­toire, en of­frant la pos­si­bi­li­té de créer des re­pré­sen­ta­tions ex­trê­me­ment fines, et mul­tis­pec­trales, d’un en­vi­ron­ne­ment don­né.

d’ac­com­pa­gner l’in­fan­te­rie, lui per­met­tant de se concen­trer sur l’ana­lyse des images, par exemple. On pour­rait éga­le­ment ima­gi­ner que des IA in­té­grées aux sys­tèmes d’armes – d’un vé­hi­cule ou d’un sys­tème FELIN, par exemple – puissent four­nir en permanence les so­lu­tions de tir les plus adap­tées en fonc­tion des sys­tèmes d’armes qu’elles servent et de leurs li­mi­ta­tions/ca­rac­té­ris­tiques propres. Tra­vailler de la sorte ac­croî­trait le rythme des opé­ra­tions – mais im­po­se­rait une plus grande maî­trise. En cy­ber­guerre, les IA laissent au­gu­rer la pos­si­bi­li­té de sys­tèmes au­to­nomes de dé­tec­tion d’at­taque et de leur neu­tra­li­sa­tion. Rien n’em­pêche, du moins en théo­rie, la gé­né­ra­tion de cy­be­rarmes adap­tées aux re­pré­sailles, en fonc­tion d’un pa­ra­mètre de ri­poste équi­va­lente, par exemple. Le sys­tème au­rait pour lui une ca­pa­ci­té au­to­nome – li­bé­rant des res­sources hu­maines pour d’autres tâches – et une ca­pa­ci­té de co­dage/ concep­tion po­ten­tiel­le­ment su­pé­rieure à celle d’un groupe d’hu­mains. La vi­tesse se­rait éga­le­ment un atout de pa­reils sys­tèmes, dont rien ne s’op­pose à ce qu’ils soient uti­li­sés sur les théâtres, à un ni­veau bri­gade ou in­fé­rieur. L’IA per­met­trait ain­si d’of­frir la ré­si­lience et l’adap­ta­tion aux me­naces pro­mises – jus­qu’ici, sans suc­cès – par les te­nants de la cy­ber­guerre.

DES LI­MITES BIEN RÉELLES

Reste aus­si que de tels sys­tèmes sont contraints par leur propre lo­gique. Les ra­tio­na­li­tés ac­tuelles, qui comptent sur des ca­pa­ci­tés dis­tri­buées, im­posent de dis­po­ser de liai­sons stables et d’une im­po­sante ca­pa­ci­té de cal­cul. Quel se­rait l’avan­tage d’une conscience si­tua­tion­nelle aug­men­tée du com­bat­tant pro­duite par une IA, mais qui ne se­rait pas en me­sure de fonc­tion­ner ou de dif­fu­ser le pro­duit de son tra­vail ? On re­trouve ici la pro­blé­ma­tique, très contem­po­raine, de la nu­mé­ri­sa­tion consi­dé­rée comme ac­quise et ca­pable de fonc­tion­ner, quelles que soient les cir­cons­tances. Or cette nu­mé­ri­sa­tion, comme cette IA, ne sont pas d’une grande uti­li­té si les « tuyaux » sont cou­pés, brouillés ou si une IA ad­verse par­vient à conta­mi­ner les pro­ces­sus. En 1973, des bat­te­ries d’ar­tille­rie égyp­tiennes ont été dé­truites par d’autres bat­te­ries du Caire parce que des opé­ra­teurs arabes is­raé­liens sont en­trés dans les ré­seaux de com­mu­ni­ca­tion pour don­ner les ordres condui­sant aux tirs fra­tri­cides. Ils ont aus­si été ca­pables de pa­ra­ly­ser des uni­tés égyp­tiennes en cou­pant leurs com­mu­ni­ca­tions. Il faut ici rap­pe­ler que la guerre élec­tro­nique – et cy­be­r­élec­tro­nique – de­vient un réel avan­tage com­pa­ra­tif pour la Rus­sie ou la Chine qui, com­pre­nant notre dé­pen­dance aux ré­seaux, in­ves­tissent beau­coup. Ces ré­seaux n’ont donc rien d’ac­quis.

Au de­meu­rant, ce ta­lon d’achille est éga­le­ment un garde-fou. S’il est à craindre de voir émer­ger le même type de lit­té­ra­ture ca­tas­tro­phiste au­tour des IA qu’au­tour des drones, la dé­pen­dance à «l’ex­té­rieur des zones de bataille» im­plique d’évi­ter de dé­ve­lop­per des sys­tèmes de com­bat au­to­nomes et fon­dés sur les IA au­to­nomes et ca­pables d’ap­prendre en temps réel. De ce point de vue, la dé­pen­dance aux ca­pa­ci­tés in­for­ma­tiques ex­té­rieures est telle que les IA ac­tuelles ne sont pas au­to­nomes. Tant que les ca­pa­ci­tés in­for­ma­tiques per­met­tant de mettre en oeuvre ces IA ne peuvent pas être concen­trées sur une plate-forme pour la rendre réel­le­ment in­dé­pen­dante d’un en­vi­ron­ne­ment par na­ture chao­tique, le sys­tème au­to-ap­pre­nant – et le cap­teur – le plus avan­cé à dis­po­si­tion des forces reste l’homme.

De tels sys­tèmes sont contraints par leur propre lo­gique. Les ra­tio­na­li­tés ac­tuelles, qui comptent sur des ca­pa­ci­tés dis­tri­buées, im­posent de dis­po­ser de liai­sons stables et d’une im­po­sante ca­pa­ci­té de cal­cul. Quel se­rait l’avan­tage d’une conscience si­tua­tion­nelle aug­men­tée du com­bat­tant pro­duite par une IA, mais qui ne se­rait pas en me­sure d e fonc­tion­ner ou de dif­fu­ser le pro­duit de son tra­vail ?

Notes

(1) Phi­lippe Langloit, « Ro­bo­tique ter­restre : le grand désen­chan­te­ment? », Dé­fense & Sé­cu­ri­té In­ter­na­tio­nale, no 111, fé­vrier 2015.

(2) Jo­seph Hen­ro­tin, « Les ro­bots de com­bat vont-ils mas­sa­crer l’hu­ma­ni­té (et les pe­tits chats)? So­cio­lo­gie d’un dé­bat non in­for­mé », Dé­fense & Sé­cu­ri­té In­ter­na­tio­nale, no 132, no­vembre-dé­cembre 2017.

(3) Sam Wong, « Google Trans­late AI In­vents its own Lan­guage to Trans­late With », New Scien­tist, 30 no­vembre 2016 (https://www.news­cien­tist.com/ar­ticle/2114748-goo­gle­trans­late-ai-in­vents-its-own-lan­guage-to-trans­late-with/).

(4) La re­marque n’a rien d’ano­din dans un contexte de ré­sur­gence des ca­pa­ci­tés de guerre élec­tro­nique et de leur cou­plage aux ca­pa­ci­tés cy­ber.

(5) Ed­ward Geist et An­drew J. Lohn, How Might Ar­ti­fi­cial In­tel­li­gence Af­fect the Risk of Nu­clear War?, RAND Corp, San­ta Mo­ni­ca, avril 2018.

(6) Ro­bert W. But­ton, « Ar­ti­fi­cial In­tel­li­gence and the Mi­li­ta­ry », Real Clear De­fense, 7 sep­tembre 2017.

(7) Les­quelles sont, dans les États oc­ci­den­taux, con­crè­te­ment confon­dues : on n’ima­gine pas de pro­ces­sus po­li­tique com­plet ayant im­pli­qué l’em­ploi de la force mi­li­taire sans que ce der­nier ait été contrô­lé par le po­li­tique de ma­nière à pro­duire «la meilleure paix pos­sible». Cette ra­tio­na­li­té s’op­pose à celle de l’ef­fi­ca­ci­té mi­li­taire, s’en­ten­dant sur le plan tac­tique et à court terme.

(8) Avec la pro­po­si­tion d’op­tions ne ré­pon­dant pas né­ces­sai­re­ment aux im­pé­ra­tifs d’ef­fi­cience stra­té­gique. Ty­pi­que­ment, c’est le cas pour le pro­gramme de guerre bio­lo­gique pro­po­sé contre le Ja­pon du­rant la Deuxième Guerre mon­diale.

La si­mu­la­tion de si­tua­tions plus com­plexes pour­rait être l’une des pre­mières ap­pli­ca­tions des IA. (© US Ma­rine Corps)

Images prises par le sys­tème ARGUS-IS (Au­to­no­mous Real-time Ground Ubi­qui­tous Sur­veillance Ima­ging Sys­tem). Ins­tal­lé sur un drone, il per­met de sur­veiller une zone de 36 miles car­rés. Les IA per­met­traient d’en ex­traire les in­for­ma­tions per­ti­nentes. (© DARPA)

Pro­to­type de ro­bot. Pour l’ins­tant, l’au­to­no­mi­sa­tion de ces sys­tèmes n’est pas en­core à l’ordre du jour. (© US Na­vy)

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.