Terminator, le re­tour en vrai ?

DÉ­FENSE La course à l’ar­me­ment des grandes puis­sances dans le domaine de l’intelligen­ce ar­ti­fi­cielle in­quiète sur la part lais­sée à l’humain dans la dé­ci­sion. D’au­tant que les ex­perts ne savent pas quand l’IA se­ra com­plé­te­ment ex­pli­cable.

La Tribune Hebdomadaire - - INDUSTRIE ET SERVICES - MICHEL CABIROL

L’intelligen­ce ar­ti­fi­cielle (IA) se­ra-t-elle le cau­che­mar de l’hu­ma­ni­té… ou bien un « ou­til » au ser­vice de l’Homme qu’il sau­ra plei­ne­ment maî­tri­ser!?

Trois mots-clés dé­fi­nissent une IA dite de confiance!: ex­pli­ca­bi­li­té a pos­te­rio­ri ou en temps réel, va­li­di­té (preuve de sa sû­re­té de fonc­tion­ne­ment) et, en­fin, res­pon­sa­bi­li­té (com­por­te­ment lé­gal et éthique). Le monde en est loin. Très loin. Car, au-de­là des in­no­va­tions tech­niques et tech­no­lo­giques, les ques­tions du contrôle et de l’ex­pli­ca­bi­li­té de l’IA res­tent tou­jours po­sées à ce jour au mo­ment où les grandes puis­sances se livrent pour­tant à une course à l’ar­me­ment dans ce domaine (États-Unis, Chine, Rus­sie…). « Ce­lui qui maî­tri­se­ra l’intelligen­ce ar­ti­fi­cielle

do­mi­ne­ra le monde » , a bien dé­cla­ré le pré­sident russe, Vla­di­mir Pou­tine. Tout le monde a évi­dem­ment en tête les très re­dou­tables Sa­la (Sys­tèmes d’armes lé­taux au­to­nomes), plus com­mu­né­ment ap­pe­lés ro­bots tueurs. Les forces amé­ri­caines, chi­noises et russes tra­vaillent dé­jà à l’in­té­gra­tion d’uni­tés ro­bo­ti­sées ar­mées, des sys­tèmes ar­més au­to­nomes mais en­core sous tu­telle hu­maine. Soit le der­nier stade avant l’au­to­no­mie com­plète, style Terminator.

Des ex­pé­ri­men­ta­tions que les grandes puis­sances mi­li­taires ef­fec­tuent ac­tuel­le­ment alors que les plus grands ex­perts ne sont pour le mo­ment pas ca­pables d’ex­pli­quer l’IA dite de « boîte noire » ni en­core moins de la cer­ti­fier. L’im­ma­tu­ri­té des tech­niques de l’IA ne fait vrai­ment pas peur aux Amé­ri­cains, qui rai­sonnent dif­fé­rem­ment!: « Ce qui ne se­rait pas éthique se­rait cer­tai­ne­ment d’en­voyer des soldats amé­ri­cains au contact d’une unité de ro­bots ar­més (chi­nois ou russes) » , ont-ils dé­cla­ré. En

re­vanche, « la po­si­tion fran­çaise est sans ambiguïté, le pré­sident de la Ré­pu­blique a été par­fai­te­ment clair!: la France refuse de confier la dé­ci­sion de vie ou de mort à une ma­chine qui agi­rait de fa­çon plei­ne­ment au­to­nome et échap­pe­rait à tout contrôle humain » , a ex­pli­qué en avril der­nier la mi­nistre des Ar­mées, Flo­rence Par­ly.

« BOÎTE NOIRE »

Pour ar­ri­ver à une IA plus éthique, deux obs­tacles res­tent en­core à sur­mon­ter. Les ex­perts ne sont au­jourd’hui qu’à une étape in­ter­mé­diaire, à sa­voir la mise au point de l’IA ex­pli­cable, une pre­mière étape avant le long che­min d’une pos­sible cer­ti­fi­ca­tion. Au­jourd’hui, la branche de l’IA qui re­pose sur l’ap­pren­tis­sage par les don­nées, fait ap­pel es­sen­tiel­le­ment au « ma­chine

lear­ning » !: c’est la fa­meuse IA dite « boîte noire ». Les ques­tions de l’em­ploi de l’IA dans la dé­fense se heurtent très sou­vent à la ques­tion de l’ex­pli­ca­bi­li­té. Pour­quoi!? « On ne sau­ra ja­mais ex­pli­quer pour­quoi elle ar­rive au ré­sul­tat, mais on constate que ce ré­sul­tat est exact dans 99,99 % des cas. C’est le cas de la re­con­nais­sance fa­ciale. Mais lors­qu’il lui ar­rive de se trom­per, on ne sait pas l’ex­pli­quer » , ob­serve le PDG de Thales, Pa­trice

Caine (La Tri­bune du 14 juin). « Les mé­thodes d’ap­pren­tis­sage sta­tis­tique et en par­ti­cu­lier les ré­seaux de neu­rones sont ac­cu­sés d’être des “boîtes noires”, ce qui est ob­jec­ti­ve­ment vrai, dans le sens où ils ne four­nissent pas d’ex­pli­ca­tion

com­plète de leurs dé­ci­sions » , pré­cisent dans la Re­vue Dé­fense Na­tio­nale Oli­vier Kempf, con­sul­tant en cy­ber et di­gi­tal, et Eloïse Ber­tier, in­gé­nieur de l’ar­me­ment re­cherche.

La pre­mière étape pour ar­ri­ver à une IA ex­pli­cable fe­ra vrai­sem­bla­ble­ment ap­pel à de l’IA à base d’ap­pren­tis­sage par les don­nées et à de l’IA à base d’ap­pren­tis­sage par les mo­dèles. Cette hy­bri­da­tion de ces deux types d’IA de­vrait per­mettre de pro­duire des al­go­rithmes per­met­tant d’ex­pli­quer les ré­sul­tats de l’IA. « On y

tra­vaille et on a bon es­poir d’y ar­ri­ver », es­time Pa­trice Caine. La deuxième étape, c’est donc l’IA cer­ti­fiable. Ce qui lui don­ne­rait en­fin un la­bel dit de « confiance ». Mais, puis­qu’il y a un « mais »… « Les grands ex­perts disent que ce­la pren­dra sans doute des an­nées et qu’on n’est pas sûr d’y ar­ri­ver, mais on cherche. Si on y ar­rive, on pour­ra l’uti­li­ser de manière plus ex­ten­sive. Et la plu­part des ré­ti­cences se­ront le­vées. On se­ra dans un autre uni­vers », aver­tit le PDG de Thales. Tout est dit ou presque. Car il existe éga­le­ment une dif­fi­cul­té qui a trait à la sé­cu­ri­té de l’IA. Comment être sûr qu’une IA donnera tou­jours les mêmes ré­sul­tats et au­ra une per­ma­nence de sa performanc­e!? Comme l’IA se­ra in­té­grée dans plu­sieurs dis­po­si­tifs mi­li­taires (sys­tèmes d’armes ou aide à la dé­ci­sion d’état-major), son uti­li­sa­tion de plus en plus importante va en­traî­ner une exi­gence de qua­li­té.

D’au­tant que s’ajoutent les risques de cy­ber­sé­cu­ri­té. Étant un sys­tème nu­mé­rique, l’IA est sus­cep­tible d’être at­ta­qué par d’autres sys­tèmes nu­mé­riques. Pour au­tant, « ce n’est pas une rai­son suf­fi­sante pour s’op­po­ser à leur uti­li­sa­tion dans le contexte de la dé­fense alors qu’ils ont prou­vé leur su­pé­rio­ri­té dans de nom­breux do­maines (trai­te­ment des images, des langues, etc.) », es­timent Oli­vier Kempf et Eloïse Ber­tier, Il reste donc à dé­ter­mi­ner comment on peut ré­soudre la ques­tion de l’ex­pli­ca­bi­li­té dans un contexte mi­li­taire.

COMMENT SÉ­CU­RI­SER L’IA ?

Les États sont donc face au dé­fi co­los­sal de la sé­cu­ri­sa­tion des tech­niques de l’IA. D’au­tant que cette tech­no­lo­gie est le plus sou­vent dé­ve­lop­pée hors du contrôle des États, qui n’ont plus la ca­pa­ci­té d’an­ti­ci­per. Ce sont les géants mon­diaux du nu­mé­rique, en l’oc­cur­rence les Ga­fa­mi (Google, Apple, Fa­ce­book, Ama­zon et Mi­cro­soft, IBM), qui ont per­mis les pro­grès re­mar­quables que l’on connaît dans l’un des do­maines de l’IA, ce­lui de l’ap­pren­tis­sage au­to­ma­tique et no­tam­ment du deep lear­ning. Très proches de l’ar­mée chi­noise, les BATX (Bai­du, Ali­ba­ba, Tencent et Xiao­mi) re­pré­sentent éga­le­ment un autre dan­ger. Aus­si, la ca­pa­ci­té de dis­po­ser d’ou­tils de confiance, si­non sou­ve­rains, se­ra un élé­ment clé pour per­mettre le dé­ploie­ment le plus sûr pos­sible des ap­pli­ca­tions do­tées de cette tech­no­lo­gie.

La prise en compte de la sé­cu­ri­té dès la concep­tion des nom­breux pro­jets ayant re­cours à cette tech­no­lo­gie ap­pa­raît comme une condi­tion sine qua non de son ac­cep­ta­tion so­ciale. Par ailleurs, sou­vent, l’ex­pli­ca­bi­li­té doit d’abord être cher­chée du côté des don­nées!: qua­li­té des don­nées four­nies, biais éven­tuels.

En France, l’Agence na­tio­nale de la sé­cu­ri­té des sys­tèmes d’in­for­ma­tion (Ans­si) a fait de la sé­cu­ri­sa­tion de l’IA une de ses prio­ri­tés. Son ob­jec­tif est de construire col­lec­ti­ve­ment la confiance nu­mé­rique de demain. Face à ce bou­le­ver­se­ment ma­jeur qu’est l’IA, les mé­thodes ac­tuelles de l’Ans­si « ne sont ni trans­po­sables, ni ef­fi­caces car elles visent à pro­té­ger les don­nées », a pour­tant af­fir­mé en avril, lors de la pré­sen­ta­tion du rap­port an­nuel de 2018 de l’Ans­si, le sous-di­rec­teur Ex­per­tise de l’Agence, Vincent Stru­bel. L’en­jeu est donc de taille, car le champ des pos­sibles est gi­gan­tesque!: l’IA va toucher tous les do­maines des ac­ti­vi­tés hu­maines, éco­no­miques et tech­niques, al­lant du trans­port au­to­nome jus­qu’aux in­ter­ac­tions en lan­gage na­tu­rel, en pas­sant par des sys­tèmes d’armes lé­taux.

« La France refuse de confier la dé­ci­sion de vie ou de mort à une ma­chine qui agi­rait de fa­çon plei­ne­ment au­to­nome »

FLO­RENCE PAR­LY,

MI­NISTRE DES AR­MÉES

[TERMINATOR/ORION PIC­TURES]

Des ar­mées tra­vaillent à des uni­tés ro­bo­ti­sées en­core sous tu­telle hu­maine, der­nier stade avant l’au­to­no­mie com­plète à la Terminator.

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.