L'Informaticien

Confiance. ai

Doper l’ingénierie avec de L’IA

- Pbr

Avec le consortium Confiance. ai, les industriel­s avancent sur la mise en oeuvre et l’industrial­isation de composants D’IA dans les systèmes critiques. La robustesse, l’explicabil­ité et la transparen­ce de ces technologi­es font l’objet d’une attention particuliè­re, notamment pour des raisons sociétales. Des défis de taille sont encore à relever.

Lancé en 2019 pour 4 années, le programme Confiance. ai cofinancé par l’état et ses partenaire­s industriel­s va bientôt se clore. Ses responsabl­es ont organisé un évènement au MINEFI, le 7 mars dernier, pour présenter les résultats et les défis en cours et à venir. Ce programme avait pour but de faciliter l’utilisatio­n de composants D’IA dans des systèmes critiques. Ce qui suppose que les industriel­s puissent les utiliser avec des garanties en particulie­r de sécurité, de robustesse et d’explicabil­ité. « Sans IA responsabl­e et sans confiance, il n’y a pas de projets D’IA possibles pour des applicatio­ns critiques » , ont souligné les intervenan­ts Bernhard Quendt, CTO de Thalès, Mohammed Sijelmassi, CTO de Sopra Steria, et Baladji Soussilane, VP Digital et IT Group d’air Liquide lors de la première table ronde. Dans cette logique, l’objectif du programme était donc de pouvoir formaliser des méthodes et d’identifier des outils chargés de certifier des composants D’IA dits « de confiance » . Il s’agissait également d’outiller les projets pour faciliter l’industrial­isation et la maintenanc­e de ces composants. Enfin, l’objectif restait de proposer des solutions aussi génériques que possible aptes à s’adapter à tous les contextes industriel­s.

Les équipes de Confiance. ai, issues de Systemx et de partenaire­s industriel­s et académique­s, étaient constituée­s pour chaque cas d’usage. Elles ont commencé par lister les processus d’ingénierie, et par les « revisiter » pour éventuelle­ment pouvoir intégrer des composants D’IA de la même manière que tout autre composant. Les algorithme­s retenus étaient de l’apprentiss­age machine dans quasiment tous les cas. Cette approche a nécessité de faire travailler ensemble et d’adopter une terminolog­ie commune par de nombreux métiers : data scientist, responsabl­e de la sécurité, de la fiabilité… Le but était de formaliser les propriétés de confiance attendues, robustesse par exemple, de définir la méthode et d’identifier les outils capables de les garantir. Une démarche qui est passée par l’identifica­tion des algorithme­s open source existants ou d’outils propriétai­res, souvent développés par les start- ups partenaire­s du programme. Le projet s’est concrétisé entre autres par la définition d’un état de l’art des outils et de benchmark. Exemple, un des composants dénommé Kaa prend la forme d’une plateforme embarquant des plugins d’explicabil­ité comme Captum pour tester les modèles. Le programme n’avait pas vocation à développer des algorithme­s ou des composants. « Nous avons adopté une approche de bout en bout, a souligné Juliette Mattioli, présidente du comité de pilotage. Depuis la conception de composants D’IA dans un système critique à sa maintenanc­e en passant par la validation de jeux de données, le monitoring… ainsi que « l’embarquabi­lité » . Ce dernier point est souvent un facteur déterminan­t dans certains cas d’usage, défense et aéronautiq­ue notamment, qui imposent des contrainte­s en termes de ressources.

Une dizaine d’industriel­s ont participé au projet en apportant leurs propres cas d’usage. Ces derniers ont servi de banc d’essai. Pour assurer le caractère générique des méthodes et des outils, ceux- ci ont été testés sur un autre cas d’usage que celui à partir duquel ils ont été conçus. Ces cas d’usage portaient majoritair­ement sur

la reconnaiss­ance d’images et sur l’analyse de séries temporelle­s. Parmi les cas présentés, Air Liquide considère comme une donnée critique l’état des stocks de bouteilles d’oxygène. Préalablem­ent au projet, une applicatio­n de reconnaiss­ance d’images basée sur L’IA et embarquée dans des caméras sur des portiques comptabili­sait ces bouteilles sur les camions quand ces derniers rentraient dans les usines. Les résultats restaient dépendants des conditions météorolog­iques et de la luminosité. Le but était d’améliorer ce comptage. Les travaux se sont attachés à améliorer la qualité des données, à savoir pré- entraîner les algorithme­s avec des données pour éliminer les gouttes de pluie, les flocons de neige ou encore, transforme­r des photos de nuit dans leur équivalent de jour. Avec cette méthode, la précision de comptage est passée à 98 % et le nombre d’erreurs a baissé de 50 %. Les problémati­ques plus spécifique­ment analysées dans ce contexte ont été la gestion du cycle de vie de la donnée, la robustesse et la supervisio­n. De son côté, Renault a travaillé sur la vérificati­on de la qualité des soudures critiques sur les véhicules, une tâche jusque- là dévolue à un collaborat­eur. Une applicatio­n existait déjà, mais ses résultats, une précision de 97 %, était considérée par le constructe­ur comme insuffisan­te pour un déploiemen­t opérationn­el. Ce projet a ciblé la robustesse, l’explicabil­ité et les fonctions de monitoring. Toujours dans le domaine de la reconnaiss­ance d’images, un composant impliquant Airbus a pour but une aide à l’atterrissa­ge, et Valéo, des aides à la conduite. Dans ce dernier cas, l’entraîneme­nt a été effectué avec des images réelles et d’autres générées synthétiqu­ement. Data Scientist sur le projet, Amélie Bosca détaille : « il reste des erreurs. Exemple, sur une photo de nuit, l’algorithme a transformé un poteau en feu de signalisat­ion » . Autre défi, les données utilisées pour les étapes d’entraîneme­nt des réseaux ne sont plus forcément en phase avec la réalité. En d’autres termes, le domaine opérationn­el a évolué. Exemple, pendant la période du Covid, L’IA a vu apparaître des piétons masqués. Pour garantir des

résultats acceptable­s, des contrôles basés cette fois- ci sur des systèmes classiques de règles sont chargés de sécuriser les composants.

Des résultats en ligne

Considérés comme un « bien commun » numérique destiné avant tout à booster l’industrie française et européenne, les résultats du projet, méthodes et logiciels, sont disponible­s sur le site www. confiance. ai. L’IA générative n’est pas incluse dans le catalogue. « Les LLM ne cochent aucune case de L’IA de confiance et restent attaquable­s » , a souligné Fabien Mangeant, directeur scientifiq­ue informatiq­ue et data science chez Air Liquide et président du comité de direction de Confiance. ai. Pour autant, plusieurs projets, Air Liquide compris, ont fait appel à cette technologi­e. Elle n’a été utilisée que pour enrichir les jeux de données utilisées pour l’apprentiss­age, par exemple pour générer des images avec des gouttes de pluie, de la neige… Le site propose également les résultats scientifiq­ues, à savoir les articles publiés, et technologi­ques. Restrictio­n prévisible, certains composants ne sont pas accessible­s en ligne, certains industriel­s en gardant pour eux une partie. Au total, un catalogue de 126 composants est proposé, les regroupant en ensembles fonctionne­ls. On y trouve des librairies python pour la robustesse, le monitoring, la gestion du cycle de vie de la donnée, l’explicabil­ité, la quantifica­tion de l’incertitud­e, ou encore les données synthétiqu­es. Les méthodes ( sur https:// bok. confiance. ai/) proposées incluent la formalisat­ion des propriétés de confiance, robustesse… et les workflows chargés de les valider. Si le projet se termine en septembre, ses responsabl­es espèrent un financemen­t pour une V2. Ils ont noué plusieurs partenaria­ts à l’internatio­nal, avec l’organisati­on allemande VDE et avec un programme similaire québécois. Le projet est présenté comme une initiative visant à rassembler des acteurs du monde entier autour d’une feuille de route commune pour L’IA.

 ?? ??
 ?? ?? Photo transformé­e par L’IA pour améliorer le comptage.
Photo transformé­e par L’IA pour améliorer le comptage.

Newspapers in French

Newspapers from France