Les ro­bots de com­bat vont-ils mas­sa­crer l’hu­ma­ni­té (et les pe­tits chats) ? So­cio­lo­gie d’un dé­bat non in­for­mé

(et les pe­tits chats)

DSI - - SOMMAIRE - Par Jo­seph Hen­ro­tin, char­gé de re­cherche au CAPRI

So­cio­lo­gie d’un dé­bat non in­for­mé

La ré­cente dé­ci­sion mi­nis­té­rielle d’ar­mer les drones MQ-9 de l’ar­mée de l’air a don­né aux au­teurs cri­ti­quant les « ro­bots tueurs » de nou­velles rai­sons de s’in­di­gner et d’ali­men­ter ce qui est de­ve­nu à la fois un genre lit­té­raire et une ma­de­leine de Proust de la théo­rie cri­tique. Mais ce dé­bat n’est-il pas d’abord ré­vé­la­teur d’une mé­con­nais­sance, aus­si pro­fonde que cou­pable, du champ mi­li­taire ?

Il ne se passe plus un mois sans que l’on voie ap­pa­raître un ou­vrage ou en­core un ar­ticle consa­cré à l’in­évi­table au­to­no­mi­sa­tion des tech­no­lo­gies et aux risques liés aux « ro­bots tueurs » qui ne man­que­ront pas d’en­trer en

ser­vice au sein des armées oc­ci­den­tales. Pêle-mêle, on y re­trouve les fi­gures clas­siques de la phi­lo­so­phie des tech­niques (la perte de contrôle des tech­no­lo­gies, le dé­ter­mi­nisme tech­no­lo­gique) et des in­ter­ro­ga­tions éthiques, ju­ri­diques, mais aus­si po­li­tiques dès lors que les tech­no­lo­gies des « ro­bots tueurs » sont aus­si celles des «so­cié­tés de la sur­veillance». Ces

ques­tion­ne­ments s’in­carnent d’abord dans le drone, fi­gure per­çue comme dis­rup­tive, si­non ré­vo­lu­tion­naire. L’ou­vrage de Gré­goire Cha­mayou

(1) en est un exemple as­sez abou­ti, mais les in­quié­tudes sont re­nou­ve­lées par les ré­centes prises de po­si­tion de lea­ders de l’in­no­va­tion, comme Elon Musk et Bill Gates, ou de scien­ti­fiques, comme Ste­phen Haw­king.

Les études dites cri­tiques sont-elles in­for­mées ?

On peut com­prendre ces in­ter­ro­ga­tions : la vi­tesse de dé­ploie­ment des in­no­va­tions est de­ve­nue phé­no­mé­nale. Il y a à peine 25 ans, In­ter­net ne tou­chait qu’une toute pe­tite frac­tion de la po­pu­la­tion mon­diale et les ca­pa­ci­tés des or­di­na­teurs de l’époque nous semblent aujourd’hui to­ta­le­ment dé­pas­sées. Les pro­grès réa­li­sés dans tous les do­maines liés à l’élec­tro­nique et à ses ap­pli­ca­tions (dont la robotique) ont été gi­gan­tesques et, comme tout dé­ve­lop­pe­ment tech­no­lo­gique ra­pide, ce­lui lié à l’in­for­ma­tique sus­cite des peurs et des cri­tiques. Nombre de contri­bu­tions au dé­bat sont ain­si à consi­dé­rer comme une forme, pa­ci­fiée, de lud­disme (2). On ne peut ex­traire, par ailleurs, le dé­bat de sa di­men­sion com­mer­ciale : la peur est un mar­ché dont le sen­sa­tion­na­lisme est un mo­teur. Ou­vrages et ar­ticles trou­ve­ront plus fa­ci­le­ment un es­pace édi­to­rial s’ils sont consi­dé­rés comme cri­tiques. De même, le « mar­ché aca­dé­mique », avec à la clé des postes d’en­sei­gne­ment, est plus ou­vert aux thé­sards adop­tant des po­si­tions ra­di­cales sur ces tech­no­lo­gies (3).

Il n’est pas ques­tion, ici, de dire que la cri­tique n’est pas né­ces­saire ou qu’une pos­ture mé­fiante à l’égard des nou­velles tech­no­lo­gies, y com­pris mi­li­taires, n’a pas lieu d’être. Au contraire, s’il nous semble que les ac­tuels débats ne sont pas per­ti­nents, ce n’est pas en rai­son de leurs conclu­sions, mais, bien sou­vent, de la mé­tho­do­lo­gie adop­tée, qui vise à prendre en compte à peu près tout, sauf l’ob­jet lui-même. Ain­si, s’il est ques­tion de ro­bots de com­bat, de drones et d’in­tel­li­gence ar­ti­fi­cielle dans le champ mi­li­taire, toutes les dis­ci­plines sont pré­sentes, à l’ex­cep­tion, aus­si no­table que re­gret­table, des études stra­té­giques et des de­fence/war­fare stu­dies elles-mêmes. C’est évi­dem­ment un biais mé­tho­do­lo­gique ma­jeur, dont l’équi­valent en on­co­lo­gie se­rait de cher­cher à pré­ve­nir et trai­ter le can­cer non seule­ment sans l’étu­dier, mais au sur­plus sans com­prendre ses causes, en ne s’in­té­res­sant qu’à ses consé­quences sur la vie – et même pas la san­té – du ma­lade.

Dé­cons­truire beau­coup, re­cons­truire mal

Avant d’al­ler plus loin, il faut re­ve­nir ici sur les mé­tho­do­lo­gies des études dites cri­tiques. De­puis les an­nées 1970, la théo­rie construc­ti­viste a pris un réel es­sor dans le monde aca­dé­mique. En soi, elle est utile, no­tam­ment parce qu’elle per­met de prendre en compte les per­cep­tions des dif­fé­rents ac­teurs. C’est no­tam­ment le cas pour l’ana­lyse des sys­tèmes d’armes. Ils ne sont pas que de l’in­gé­nie­rie, mais aus­si le ré­sul­tat d’une his­toire qui leur est propre et qui im­plique des in­té­rêts par­fois op­po­sés, se tra­dui­sant par des in­ter­ac­tions au sein d’un pro­gramme d’ar­me­ment. C’est ce qui ex­plique pour­quoi, par exemple, un Le­clerc est dif­fé­rent d’un Leo­pard 2, alors que les in­gé­nieurs les ayant conçus ont gros­so mo­do les mêmes com­pé­tences. Le pro­blème in­ter­vient lorsque la théo­rie est dé­voyée et que tout est vu comme une per­cep­tion : on bas­cule alors dans une lo­gique dite «post-po­si­ti­viste». Dès lors que tout est construc­tion, y com­pris les faits et les opi­nions contraires à la théo­rie dite cri­tique, tout de­vient re­la­tif. Plus rien ne peut être ana­ly­sé ob­jec­ti­ve­ment. La théo­rie peut alors s’au­to­no­mi­ser, per­dant le contact avec le réel ; sa­chant que tout rap­pel au réel se­ra dis­qua­li­fié comme ren­voyant à des fac­teurs « tech­niques ».

La tac­tique est com­mode, mais pose évi­dem­ment la ques­tion de la fi­na­li­té des tra­vaux réa­li­sés. Les as­pects tech­niques ren­voient, pour nombre d’au­teurs se ré­cla­mant des études dites cri­tiques, à la no­tion d’ex­per­tise. Elle semble dé­va­lo­ri­sée parce qu’in­suf­fi­sam­ment noble du fait de son manque de mise en pers­pec­tive au re­gard des théo­ries. Reste que toute dis­ci­pline scien­ti­fique ne peut se pas­ser d’élé­ments tech­niques, qui consti­tuent un des pre­miers « ma­té­riaux de base » de l’ana­lyse : on ima­gine mal un ma­thé­ma­ti­cien ne maî­tri­sant pas l’al­gèbre ou un so­cio­logue ne con­nais­sant pas ses clas­siques. C’est pour­tant ce que l’on ob­serve, no­tam­ment chez G. Cha­mayou, dans le cas du drone. Ce der­nier est dé­cons­truit – pour­quoi pas –, mais jus­ti­fier sa dé­marche im­plique pour l’au­teur de construire, en re­tour, une théo­rie. La pro­blé­ma­tique est alors dés­in­car­née : le drone est car­ré­ment sor­ti de son en­vi­ron­ne­ment mi­li­taire pour de­ve­nir le pre­mier, voire le seul, ou­til de com­bat des forces oc­ci­den­tales. L’au­teur se passe alors des fon­da­men­taux de la stra­té­gie aé­rienne, de l’or­ga­ni­sa­tion des forces, ou en­core de

la stra­té­gie des moyens. Peu im­porte donc si des hommes sont pré­sents sur le ter­rain (y com­pris pour la mise en oeuvre des drones) et peu im­porte qu’ils y prennent des risques : toute la guerre de­vient « à dis­tance », ce qui per­met de jus­ti­fier la thèse.

La ra­tio­na­li­té scien­ti­fique est donc per­ver­tie. En théo­rie, à l’ap­pui d’une thèse, on pose des hy­po­thèses, en­suite va­li­dées ou non par la re­cherche à pro­pre­ment par­ler – la conclu­sion du tra­vail peut donc va­rier au contact du ter­rain d’étude. Ici, il ne s’agit guère que de ma­tra­quer la thèse, en tor­dant la dé­mons­tra­tion, la conclu­sion étant de toute ma­nière éta­blie d’avance. La lo­gique re­te­nue im­plique éga­le­ment la tech­nique ma­ni­pu­la­toire clas­sique de la « cueillette de ce­rises ». Ain­si, s’il doit être ques­tion de stra­té­gie aé­rienne pour as­seoir la théo­rie, seul Dou­het – qui pa­raît conforme à la théo­rie que l’au­teur veut construire, parce que bru­tal et jus­ti­fiant le ci­blage de ci­vils – est mo­bi­li­sé, quand bien même il est to­ta­le­ment ab­surde de ré­duire la stra­té­gie aé­rienne à Dou­het. La dé­marche est donc tout sauf scien­ti­fique et re­lève bel et bien de l’idéo­lo­gie (4). Ce n’est évi­dem­ment pas pro­blé­ma­tique en soi – en dé­mo­cra­tie, toutes les opi­nions sont im­por­tantes –, mais ce l’est par la re­cherche d’une lé­gi­ti­mi­té scien­ti­fique : il y a clai­re­ment confu­sion et celle-ci est dom­ma­geable, parce qu’elle contri­bue à dé­lé­gi­ti­mer aux yeux du pu­blic l’uti­li­té de l’uni­ver­si­té.

Évi­dem­ment, en ne se concen­trant que sur les usages du drone dans les conflits ac­tuels, il de­vient fa­cile de pro­duire des ordres de gran­deur de des­truc­tion qui semblent in­to­lé­rables. De fac­to, ils sont sor­tis de leur contexte. Le « ro­bot tueur » do­té d’une mi­trailleuse ou d’un mis­sile an­ti­char de­vient ain­si une me­nace pour la paix et la sé­cu­ri­té mon­diale pire qu’un ba­taillon blin­dé ou qu’un tir d’ar­tille­rie de sa­tu­ra­tion. De même, le drone ti­rant quatre mis­siles à la charge ex­plo­sive de 8 kg en­vi­ron avec une pré­ci­sion de 30 cm sur des cibles clai­re­ment iden­ti­fiées de­vient plus pro­blé­ma­tique qu’un TU-22M3 lar­guant 42 bombes non gui­dées de 250 kg de­puis 6 000 m sur des cibles for­cé­ment moins iden­ti­fiées. Le grand pa­ra­doxe est ici que, dans une vi­sion «post-po­si­ti­viste», un au­teur se ré­cla­mant des études dites cri­tiques ne peut se pas­ser de don­nées. Or les États oc­ci­den­taux font preuve de plus de trans­pa­rence que les autres… dont on ne parle pas. In fine, des règles d’en­ga­ge­ment pru­dentes comme celles de la France, du Royaume-uni ou des État­su­nis se­ront plus fa­ci­le­ment re­mises en ques­tion que celles de l’ara­bie saou­dite, du Pa­kis­tan, de la Chine ou des Émi­rats arabes unis, dont il n’est pas ques­tion dans ces tra­vaux – alors même que ces États dis­posent de drones ar­més.

Études dites cri­tiques et cri­tique

Il y a donc un vé­ri­table eth­no­cen­trisme, que l’on peut re­mar­quer par ailleurs. Le site Air­wars am­bi­tionne ain­si de « sur­veiller et éva­luer les pertes ci­viles is­sues des frappes aériennes in­ter­na­tio­nales en Irak, en Syrie et en Libye ». Mais tra­vaillant en sources

(5) ou­vertes et donc en fonc­tion des com­mu­ni­qués de presse, il at­tri­bue l’es­sen­tiel des pertes ci­viles aux forces oc­ci­den­tales : les autres bel­li­gé­rants sont ain­si vir­tuel­le­ment la­vés de tout soup­çon (6). Les études « cri­tiques » ne le sont donc pas tant que ce­la. Qu’on soit vi­ro­logue ou po­li­to­logue, faire de la re­cherche im­plique de prendre en compte tous les pa­ra­mètres et de pro­cé­der à un « état de l’art » d’une ques­tion don­née : iso­ler ce que l’on en sait, avant de cher­cher à sa­voir ce que l’on ne sait pas. Évi­dem­ment, trai­ter de ques­tions mi­li­taires sans les prendre en compte n’est pas le meilleur moyen d’y ar­ri­ver. À cet égard, un der­nier as­pect nous semble éga­le­ment im­por­tant. Le pro­ces­sus de lé­gi­ti­ma­tion des études dites cri­tiques tend à faire l’im­passe sur les ap­proches qu’elles consi­dèrent comme clas­siques et donc, tou­jours pour elles, « non cri­tiques ».

Or toute dis­ci­pline pos­sède ses propres mé­ca­nismes cri­tiques. Dès qu’il est ques­tion d’études stra­té­giques, ils pa­raissent même évi­dents : morts et bles­sés sont plus concrets en­core que les coûts po­li­tiques et bud­gé­taires de mau­vaises dé­ci­sions. La souf­france hu­maine n’a ja­mais été ab­sente de l’éthique du sol­dat. Le do­maine mi­li­taire, même s’il est his­to­ri­que­ment dé­con­si­dé­ré par les so­cio­logues, a éga­le­ment sé­cré­té de lui-même ses propres mé­ca­nismes de cri­tique, sous la forme des re­tours d’ex­pé­rience. Ils peuvent évi­dem­ment être cri­ti­qués, no­tam­ment parce que ceux qui les ré­digent peuvent être sou­mis à des pres­sions ou des in­té­rêts. Mais, à l’ins­tar de toute dé­marche scien­ti­fique, l’ac­teur en­ten­dant

s’amé­lio­rer a in­té­rêt à prendre en compte les re­tours d’ex­pé­rience les plus in­tel­lec­tuel­le­ment hon­nêtes. On peut évi­dem­ment cri­ti­quer ce que re­couvre cette « amé­lio­ra­tion », y com­pris dans les opé­ra­tions mi­li­taires contem­po­raines; tout comme on peut cri­ti­quer les dé­ci­sions po­li­tiques y condui­sant. Mais, à force de se concen­trer sur l’ins­tru­ment qui tra­hi­rait une mo­ti­va­tion, nos au­teurs en ou­blient de s’in­té­res­ser à la mo­ti­va­tion.

« Les ro­bots ar­rivent et on va tous mou­rir ! »

S’il est évident que le monde des idées n’a rien à ga­gner d’une énième confu­sion entre fins et moyens, on re­marque éga­le­ment que, pour nombre d’au­teurs liés aux études dites cri­tiques, dis­po­ser de sys­tèmes d’armes im­plique né­ces­sai­re­ment de les uti­li­ser. Faut-il dès lors craindre pour l’ave­nir de l’hu­ma­ni­té (et des pe­tits chats) face à l’ar­ri­vée des « ro­bots tueurs » ? Une pre­mière re­marque porte sur le vo­cable uti­li­sé, qui ap­pelle fré­quem­ment à son illus­tra­tion par une pho­to ti­rée de Ter­mi­na­tor. Pour l’ins­tant, ce que l’on qua­li­fie de « ro­bot » est un en­gin té­lé­opé­ré ; au­tre­ment dit, té­lé­com­man­dé. Des al­go­rithmes au­to­ma­ti­sant cer­taines fonc­tions peuvent être uti­li­sés, ty­pi­que­ment, pour le main­tien de l’as­siette de vol d’un drone ou son sys­tème d’at­ter­ris­sage au­to­ma­tique, au même titre que sur un ap­pa­reil ci­vil. Ces al­go­rithmes ne ren­voient pas aux fonc­tions de com­bat. Mieux, tech­ni­que­ment par­lant, l’usage d’un drone MQ-9 consomme plus de res­sources hu­maines liées au pi­lo­tage, au ren­sei­gne­ment, au ci­blage et au tir qu’un F-16 do­té d’un pod équi­pé d’une op­tro­nique si­mi­laire à celle du drone… et dont l’usage n’est pas plus cri­ti­qué qu’un tir d’ar­tille­rie ou de mis­sile de croi­sière par les au­teurs is­sus des études dites cri­tiques. En cas d’er­reur, l’af­faire n’est donc pas à mettre sur le dos du « ro­bot », mais bien des hommes qui le pi­lotent et des règles d’en­ga­ge­ment qu’ils ont sui­vies (7).

La re­marque vaut éga­le­ment pour les ro­bots de com­bat ter­restres, qui com­mencent à ap­pa­raître. La ter­mi­no­lo­gie du « ro­bot » sous-en­tend un de­gré d’au­to­no­mie dé­ci­sion­nelle, mais la conno­ta­tion est trom­peuse : là aus­si, l’en­gin est té­lé­opé­ré. Le pa­ra­doxe tourne au co­mique lorsque les tou­relles fixes SGR-1A sud-co­réennes sont prises pour les pre­miers ro­bots de com­bat, alors qu’elles ne sont que les ava­tars moins per­for­mants des tou­rel­leaux té­lé­opé­rés ins­tal­lés sur nombre de blin­dés. Certes, on peut ré­tor­quer que, in­tel­li­gence ar­ti­fi­cielle fai­sant, ces tou­relles et tou­rel­leaux pour­raient un jour être au­to­ma­ti­sés. Ce se­rait ce­pen­dant ou­blier trois fac­teurs. Un pre­mier pour­rait être qua­li­fié de « et alors?» en consi­dé­rant que des sys­tèmes de com­bat au­to­ma­ti­sés bien plus des­truc­teurs se sont suc­cé­dé de­puis les an­nées 1950 : les mis­siles ba­lis­tiques por­teurs de charges nu­cléaires sont to­ta­le­ment au­to­nomes une fois lan­cés. De­puis les an­nées 1970, des sys­tèmes de com­bat na­val comme l’ae­gis amé­ri­cain in­tègrent un cer­tain de­gré d’au­to­no­mie, au ni­veau des Pha­lanx de dé­fense rap­pro­chée, mais aus­si (et sur­tout) des lan­ce­ments de mis­siles sur­face-air (8). C’est éga­le­ment vrai dans le do­maine ter­restre (9). Ce­lui qui voit dans l’au­to­no­mie une nou­veau­té ne connaît pas l’his­toire des tech­niques mi­li­taires.

Le deuxième fac­teur tire les consé­quences du pre­mier : non, dis­po­ser d’une ca­pa­ci­té mi­li­taire don­née ne si­gni­fie pas que l’on s’en serve ; ce qui de­vrait pour­tant sem­bler évident à tous ceux ayant un peu lu sur les ar­se­naux, l’his­toire mi­li­taire ou sur les théo­ries du culte de l’of­fen­sive ou du di­lemme de la sé­cu­ri­té. Certes, dis­po­ser de sys­tèmes d’armes per­met de les uti­li­ser, mais on ne peut faire fi de la vo­lon­té politique de leur usage. Or par­tir de ce préa­lable, comme le font plu­sieurs au­teurs des écoles dites cri­tiques, re­vient à créer le dé­ter­mi­nisme tech­no­lo­gique qu’ils font pour­tant mine de com­battre. Le pa­ra­doxe est qu’eux-mêmes se plaignent de l’évic­tion des fac­teurs po­li­tiques… alors que l’es­sen­tia­li­sa­tion tech­no­lo­gique qu’ils opèrent ne peut qu’y abou­tir.

Un troi­sième fac­teur est lié à la so­cio­lo­gie mi­li­taire : la guerre est un en­vi­ron­ne­ment chao­tique et in­cer­tain, de

sorte que tous les ef­forts liés à la doc­trine, à la tac­tique et aux tech­no­lo­gies mi­li­taires portent sur la re­cherche de ra­tio­na­li­sa­tion de ce chaos. Dans pa­reil cadre, les mi­li­taires cherchent sur­tout à évi­ter tout ce qui peut ajou­ter de la fric­tion au chaos. C’est ce qui ex­plique que les op­tions d’at­taque sur le Ja­pon, du­rant la Deuxième Guerre mon­diale, ont ra­pi­de­ment écar­té l’usage d’armes bio­lo­giques, trop in­con­trô­lables par dé­fi­ni­tion. C’est éga­le­ment ce qui ex­plique que le pre­mier « vrai » ro­bot tueur, L’AGM-84K SLAM-ER – qui dis­pose d’une ca­pa­ci­té de re­con­nais­sance au­to­ma­tique de cible – n’ait connu qu’un suc­cès commercial li­mi­té (10). C’est en­fin la rai­son pour la­quelle les pi­lotes bri­tan­niques en­ga­gés en Libye en 2011 n’ont uti­li­sé que très mar­gi­na­le­ment le mode d’at­taque au­to­ma­tique de leurs mis­siles Brim­stone, alors que l’en­vi­ron­ne­ment s’y prê­tait par­fai­te­ment.

Une deuxième re­marque porte sur ce que l’on peut qua­li­fier de « pro­phé­tie robotique », qui an­nonce l’ar­ri­vée de ro­bots de com­bat et de mu­ni­tions au­to­gui­dées de ma­nière im­mi­nente… de­puis 40 ans. Il y a, dans l’au­to­ma­ti­sa­tion du «champ de ba­taille élec­tro­nique » – pour re­prendre le titre d’un ou­vrage pa­ru en 1976 et illus­tré… d’un drone – une di­men­sion fan­tas­ma­tique

(11) cer­taine. On re­trouve éga­le­ment la fi­gure de leur ré­seau­cen­trage (12). En fait, ces dif­fé­rents as­pects consti­tuent au­tant de pro­lon­ge­ments de la Se­cond Off­set Stra­te­gy (1977), ma­trice de la ré­vo­lu­tion dans les af­faires mi­li­taires (RMA) des an­nées 1990. On no­te­ra qu’elle-même a sé­cré­té, avec la « RMA Af­ter-next », son propre tech­no­folk­lore. De­vant se réa­li­ser de nos jours, à suivre les débats la concer­nant, elle se­rait à base de mo­di­fi­ca­tions gé­né­tiques des sol­dats, de neu­ro­tech­no­lo­gies, de bio­tech­no­lo­gies… et bien sûr de robotique (13). La Third Off­set Stra­te­gy est en réa­li­té plus sobre : l’at­ten­tion qu’elle porte aux ré­seaux est telle qu’on peut sur­tout y voir le pro­lon­ge­ment de la deuxième (14).

Le tech­no-sen­sa­tion­na­lisme étant re­ca­dré, est-ce à dire qu’il est dé­fi­ni­ti­ve­ment ex­clu que l’in­tel­li­gence ar­ti­fi­cielle soit in­té­grée à des ro­bots de com­bat aux­quels se­rait don­né un cer­tain de­gré d’au­to­no­mie ? Au­cun dé­ter­mi­nisme n’exis­tant, c’est une pos­si­bi­li­té ob­jec­tive, en par­ti­cu­lier dans les pays dont le sys­tème de normes – ju­ri­diques ou de re­la­tions homme-ma­chine – dif­fère de ce­lui que l’on connaît en Europe. Si on peut y voir un nou­veau pa­ra­doxe – ce n’est en ef­fet pas sur ces États que se porte l’at­ten­tion des au­teurs –, on ne peut faire abs­trac­tion des débats eu­ro­péens, amé­ri­cains ou is­raé­liens (15). Au­cune ar­mée n’es­time né­ces­saire de dis­po­ser de sys­tèmes de com­bat au­to­nomes, même si bon nombre d’entre elles voient dans les tech­no­lo­gies ro­bo­tiques – drones et plates-formes ter­restres, exos­que­lettes – une pos­si­bi­li­té de com­pen­ser les pertes de vo­lume qu’elles sont su­bies. La lo­gique est bien celle d’une co­exis­tence, qui pose à son tour nombre de ques­tions. À cô­té des­quelles bien des au­teurs sont pas­sés, et tant pis pour la science comme pour le dé­bat pu­blic…

Ins­tal­la­tion d’un AGM-84H/K SLAM-ER. Le con­cept d’un Har­poon de frappe ter­restre à re­con­nais­sance au­to­ma­tique de cible – un vrai ro­bot tueur… ab­sent des débats sur ces der­niers – n’a guère fait re­cette. (© US Na­vy)

Tech­ni­que­ment, Alf re­pré­sente une me­nace plus im­por­tante pour les chats qu’un MQ-9. (© You­tube)

Le ro­bot tueur ori­gi­nal : des charges MIRV Mk21 (ogive W87) rentrent dans l’at­mo­sphère. Le lé­ger cran­tage de chaque ren­trée cor­res­pond à son mou­ve­ment d’os­cil­la­tion (corks­cre­wing), qui rend plus dif­fi­cile une dé­fense ba­lis­tique. (© US Air Force)

Le dé­bat ac­tuel confond « ro­bots de com­bat » et tou­relles té­lé­opé­rées. Celles-ci sont pour­tant en ser­vice de­puis une di­zaine d’an­nées et n’ont chan­gé ni la na­ture ni le ca­rac­tère de la guerre… (© US Ma­rine Corps)

Le SWORDS a fait grand bruit. Tes­té en Afghanistan, l’un d’eux s’est ren­ver­sé et a été pris par des ta­li­bans, qui ont ré­cu­pé­ré ses armes et ses mu­ni­tions. Le ro­bot y a ain­si ga­gné le sur­nom de TRV (Ta­li­ban Re­ple­nish­ment Ve­hicle). (© D.R.)

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.