Mo­ra­toire sur les ro­bots tueurs : bonne conscience et mau­vaise foi

La Recherche - - Sommaire - Jean-Ga­briel Ga­nas­cia

On an­nonce que, très bientôt, des ro­bots sol­dats sé­lec­tion­ne­ront des cibles vi­vantes et en­ga­ge­ront le feu sans qu’au­cun être hu­main n’in­ter­vienne dans la prise de dé­ci­sion. Ce se­rait im­mi­nent – une ques­tion d’an­nées, voire de mois. Com­ment ne pas en fré­mir et vou­loir em­pê­cher ce­la? Com­ment ne pas ap­prou­ver les per­son­na­li­tés re­con­nues qui s’y op­posent avec vi­gueur ? Dans le pas­sé, des sa­vants re­nom­més, comme Al­bert Ein­stein et Ber­trand Rus­sell, s’étaient pro­non­cés avec cou­rage et dé­ter­mi­na­tion contre les armes nu­cléaires. Les scien­ti­fiques et les hommes d’af­faires qui, de­puis quelques an­nées, de­mandent aux États d’ins­ti­tuer un mo­ra­toire contre ces « ro­bots tueurs » que l’on ap­pelle, en termes tech­niques, des sys­tèmes d’armes lé­tales au­to­nomes (Sa­la), semblent adop­ter une pos­ture ana­logue. En 2015, à Bue­nos Aires, lors de la prin­ci­pale con­fé­rence in­ter­na­tio­nale d’in­tel­li­gence ar­ti­fi­cielle – l’Ij­cai –, ils an­non­cèrent qu’une lettre ou­verte al­lant dans ce sens avait été si­gnée par plus de 3 000 cher­cheurs et 17 000 per­son­na­li­tés, dont Elon Musk, Noam Chom­sky et Ste­phen Haw­king (1).

CET ÉTÉ,

lors d’une nou­velle édi­tion de l’Ij­cai à Mel­bourne, en Aus­tra­lie, un autre texte a été pré­sen­té: si­gné par de nom­breux in­dus­triels de la ro­bo­tique et des tech­no­lo­gies de l’in­for­ma­tion, dont tou­jours Elon Musk, il en­joi­gnait aux Na­tions unies de re­prendre leurs ré­flexions sur les armes au­to­nomes alors que, pour des rai­sons bud­gé­taires, celles-ci avaient été sus­pen­dues (2). Sans doute in­combe-t-il à chaque per­sonne éclai­rée, donc en par­ti­cu­lier aux scien­ti­fiques, de tout mettre en oeuvre pour que les États in­dus­tria­li­sés re­noncent à se lan­cer dans une folle course aux ar­me­ments dont l’is­sue ris­que­rait d’échap­per à tout contrôle hu­main. Ce­la pa­raît d’au­tant plus évident que, se­lon les ré­dac­teurs de ces lettres ou­vertes, nous se­rions à l’aube d’une troi­sième ré­vo­lu­tion dans l’art de la guerre, après celles de la poudre à ca­non et de la bombe ato­mique. Si ces prises de po­si­tion semblent louables au pre­mier abord, ne doit-on pas conser­ver son sens cri­tique et s’in­ter­ro­ger sur la réa­li­té de ces armes lé­tales au­to­nomes ? Car même si l’exis­tence des mines et des drones, l’ex­ploi­ta­tion mas­sive des ren­sei­gne­ments nu­mé­ri­sés et la guerre élec­tro­nique posent des pro­blèmes éthiques consi­dé­rables, cette nou­velle ré­vo­lu­tion dans la guerre pa­raît bien obs­cure. Là où les deux pre­mières consis­taient dans un ac­crois­se­ment consi­dé­rable de la puis­sance de feu, nous consta­tons ici une mu­ta­tion d’un ordre bien dif­fé­rent. Alors que, jus­qu’à pré­sent, avec l’arc, l’ar­que­buse, le fu­sil, le ca­non, le bom­bar­dier ou le drone, le sol­dat choi­sis­sait sa cible et la vi­sait avant de dé­clen­cher le tir, on af­firme que les armes au­to­nomes dé­si­gne­ront toutes seules des cibles vi­vantes, puis fe­ront feu d’elles-mêmes. On nous dit que, grâce aux tech­niques ac­tuelles d’ap­pren­tis­sage au­to­ma­tique, elles y par­vien­dront né­ces­sai­re­ment et que cette évolution est iné­luc­table.

COM­MENT LA MA­CHINE

pro­cé­de­ra-t-elle ? Quels cri­tères re­tien­dra-telle pour ca­rac­té­ri­ser l’ad­ver­saire ? Sa dé­marche, la cou­leur de sa peau, la forme de son nez, son sys­tème pi­leux ou son odeur ? On ne nous le pré­cise pas. Faut-il dé­sor­mais re­non­cer à com­prendre ce qui, du fait de la com­plexi­té de la tech­no­lo­gie, pa­raît échap­per au com­mun des mor­tels et s’en re­mettre à la bien­veillance de quelques au­to­ri­tés au­to­pro­cla­mées du monde contem­po­rain ? Ces ro­bots tueurs ne se­raient-ils pas des chi­mères ? Au-de­là, ces per­son­na­li­tés af­firment que l’in­tel­li­gence ar­ti­fi­cielle (IA) condui­ra fa­ta­le­ment à dé­ployer des armes lé­tales au­to­nomes et que ce­la consti­tue un dan­ger exis­ten­tiel pour l’hu­ma­ni­té, contre le­quel plus per­sonne ne peut rien. Or ce sont ces mêmes per­son­na­li­tés qui dé­ve­loppent et uti­lisent les tech­niques d’IA à la source de leur au­to­no­mie. En somme, elles éludent leurs res­pon­sa­bi­li­tés et nous cachent leurs réelles mo­ti­va­tions en nous as­su­rant que nous sommes tous sou­mis au dé­ter­mi­nisme de la tech­no­lo­gie et que donc per­sonne – ni elles, ni nous – n’est libre. Ce­la cor­res­pond exac­te­ment à ce que JeanPaul Sartre ca­rac­té­ri­sait comme étant la « mau­vaise foi »… (1) fu­tu­reo­flife.org/open-let­ter-au­to­no­mous-wea­pons (2) fu­tu­reo­flife.org/au­to­no­mous-wea­pons-open-let­ter-2017

Jean-Ga­briel Ga­nas­cia est pro­fes­seur d’in­for­ma­tique à l’uni­ver­si­té Pierre-et-Ma­rie-Cu­rie (Pa­ris 6). Il pré­side le co­mi­té d’éthique du CNRS (Co­mets).

Nous se­rions à l’aube d’une troi­sième ré­vo­lu­tion dans l’art de la guerre ”

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.