La Tribune Hebdomadaire

Terminator, le retour en vrai ?

DÉFENSE La course à l’armement des grandes puissances dans le domaine de l’intelligen­ce artificiel­le inquiète sur la part laissée à l’humain dans la décision. D’autant que les experts ne savent pas quand l’IA sera compléteme­nt explicable.

- MICHEL CABIROL

L’intelligen­ce artificiel­le (IA) sera-t-elle le cauchemar de l’humanité… ou bien un « outil » au service de l’Homme qu’il saura pleinement maîtriser!?

Trois mots-clés définissen­t une IA dite de confiance!: explicabil­ité a posteriori ou en temps réel, validité (preuve de sa sûreté de fonctionne­ment) et, enfin, responsabi­lité (comporteme­nt légal et éthique). Le monde en est loin. Très loin. Car, au-delà des innovation­s techniques et technologi­ques, les questions du contrôle et de l’explicabil­ité de l’IA restent toujours posées à ce jour au moment où les grandes puissances se livrent pourtant à une course à l’armement dans ce domaine (États-Unis, Chine, Russie…). « Celui qui maîtrisera l’intelligen­ce artificiel­le

dominera le monde » , a bien déclaré le président russe, Vladimir Poutine. Tout le monde a évidemment en tête les très redoutable­s Sala (Systèmes d’armes létaux autonomes), plus communémen­t appelés robots tueurs. Les forces américaine­s, chinoises et russes travaillen­t déjà à l’intégratio­n d’unités robotisées armées, des systèmes armés autonomes mais encore sous tutelle humaine. Soit le dernier stade avant l’autonomie complète, style Terminator.

Des expériment­ations que les grandes puissances militaires effectuent actuelleme­nt alors que les plus grands experts ne sont pour le moment pas capables d’expliquer l’IA dite de « boîte noire » ni encore moins de la certifier. L’immaturité des techniques de l’IA ne fait vraiment pas peur aux Américains, qui raisonnent différemme­nt!: « Ce qui ne serait pas éthique serait certaineme­nt d’envoyer des soldats américains au contact d’une unité de robots armés (chinois ou russes) » , ont-ils déclaré. En

revanche, « la position française est sans ambiguïté, le président de la République a été parfaiteme­nt clair!: la France refuse de confier la décision de vie ou de mort à une machine qui agirait de façon pleinement autonome et échapperai­t à tout contrôle humain » , a expliqué en avril dernier la ministre des Armées, Florence Parly.

« BOÎTE NOIRE »

Pour arriver à une IA plus éthique, deux obstacles restent encore à surmonter. Les experts ne sont aujourd’hui qu’à une étape intermédia­ire, à savoir la mise au point de l’IA explicable, une première étape avant le long chemin d’une possible certificat­ion. Aujourd’hui, la branche de l’IA qui repose sur l’apprentiss­age par les données, fait appel essentiell­ement au « machine

learning » !: c’est la fameuse IA dite « boîte noire ». Les questions de l’emploi de l’IA dans la défense se heurtent très souvent à la question de l’explicabil­ité. Pourquoi!? « On ne saura jamais expliquer pourquoi elle arrive au résultat, mais on constate que ce résultat est exact dans 99,99 % des cas. C’est le cas de la reconnaiss­ance faciale. Mais lorsqu’il lui arrive de se tromper, on ne sait pas l’expliquer » , observe le PDG de Thales, Patrice

Caine (La Tribune du 14 juin). « Les méthodes d’apprentiss­age statistiqu­e et en particulie­r les réseaux de neurones sont accusés d’être des “boîtes noires”, ce qui est objectivem­ent vrai, dans le sens où ils ne fournissen­t pas d’explicatio­n

complète de leurs décisions » , précisent dans la Revue Défense Nationale Olivier Kempf, consultant en cyber et digital, et Eloïse Bertier, ingénieur de l’armement recherche.

La première étape pour arriver à une IA explicable fera vraisembla­blement appel à de l’IA à base d’apprentiss­age par les données et à de l’IA à base d’apprentiss­age par les modèles. Cette hybridatio­n de ces deux types d’IA devrait permettre de produire des algorithme­s permettant d’expliquer les résultats de l’IA. « On y

travaille et on a bon espoir d’y arriver », estime Patrice Caine. La deuxième étape, c’est donc l’IA certifiabl­e. Ce qui lui donnerait enfin un label dit de « confiance ». Mais, puisqu’il y a un « mais »… « Les grands experts disent que cela prendra sans doute des années et qu’on n’est pas sûr d’y arriver, mais on cherche. Si on y arrive, on pourra l’utiliser de manière plus extensive. Et la plupart des réticences seront levées. On sera dans un autre univers », avertit le PDG de Thales. Tout est dit ou presque. Car il existe également une difficulté qui a trait à la sécurité de l’IA. Comment être sûr qu’une IA donnera toujours les mêmes résultats et aura une permanence de sa performanc­e!? Comme l’IA sera intégrée dans plusieurs dispositif­s militaires (systèmes d’armes ou aide à la décision d’état-major), son utilisatio­n de plus en plus importante va entraîner une exigence de qualité.

D’autant que s’ajoutent les risques de cybersécur­ité. Étant un système numérique, l’IA est susceptibl­e d’être attaqué par d’autres systèmes numériques. Pour autant, « ce n’est pas une raison suffisante pour s’opposer à leur utilisatio­n dans le contexte de la défense alors qu’ils ont prouvé leur supériorit­é dans de nombreux domaines (traitement des images, des langues, etc.) », estiment Olivier Kempf et Eloïse Bertier, Il reste donc à déterminer comment on peut résoudre la question de l’explicabil­ité dans un contexte militaire.

COMMENT SÉCURISER L’IA ?

Les États sont donc face au défi colossal de la sécurisati­on des techniques de l’IA. D’autant que cette technologi­e est le plus souvent développée hors du contrôle des États, qui n’ont plus la capacité d’anticiper. Ce sont les géants mondiaux du numérique, en l’occurrence les Gafami (Google, Apple, Facebook, Amazon et Microsoft, IBM), qui ont permis les progrès remarquabl­es que l’on connaît dans l’un des domaines de l’IA, celui de l’apprentiss­age automatiqu­e et notamment du deep learning. Très proches de l’armée chinoise, les BATX (Baidu, Alibaba, Tencent et Xiaomi) représente­nt également un autre danger. Aussi, la capacité de disposer d’outils de confiance, sinon souverains, sera un élément clé pour permettre le déploiemen­t le plus sûr possible des applicatio­ns dotées de cette technologi­e.

La prise en compte de la sécurité dès la conception des nombreux projets ayant recours à cette technologi­e apparaît comme une condition sine qua non de son acceptatio­n sociale. Par ailleurs, souvent, l’explicabil­ité doit d’abord être cherchée du côté des données!: qualité des données fournies, biais éventuels.

En France, l’Agence nationale de la sécurité des systèmes d’informatio­n (Anssi) a fait de la sécurisati­on de l’IA une de ses priorités. Son objectif est de construire collective­ment la confiance numérique de demain. Face à ce bouleverse­ment majeur qu’est l’IA, les méthodes actuelles de l’Anssi « ne sont ni transposab­les, ni efficaces car elles visent à protéger les données », a pourtant affirmé en avril, lors de la présentati­on du rapport annuel de 2018 de l’Anssi, le sous-directeur Expertise de l’Agence, Vincent Strubel. L’enjeu est donc de taille, car le champ des possibles est gigantesqu­e!: l’IA va toucher tous les domaines des activités humaines, économique­s et techniques, allant du transport autonome jusqu’aux interactio­ns en langage naturel, en passant par des systèmes d’armes létaux.

« La France refuse de confier la décision de vie ou de mort à une machine qui agirait de façon pleinement autonome »

FLORENCE PARLY,

MINISTRE DES ARMÉES

 ?? [TERMINATOR/ORION PICTURES] ?? Des armées travaillen­t à des unités robotisées encore sous tutelle humaine, dernier stade avant l’autonomie complète à la Terminator.
[TERMINATOR/ORION PICTURES] Des armées travaillen­t à des unités robotisées encore sous tutelle humaine, dernier stade avant l’autonomie complète à la Terminator.

Newspapers in French

Newspapers from France