La confiance, nouvelle frontière de l’intelligence artificielle
Trois géants français de l’industrie unissent leurs forces pour faire avancer la recherche sur la fiabilité de l’IA. PAR ALAIN BERGEN
L’intelligence artificielle fait des merveilles pour reconnaître votre visage, analyser ce que vous dites ou battre les meilleurs spécialistes du jeu de go. Mais elle n’est pas encore assez fiable pour de nombreux usages, en particulier dans l’industrie. C’est le constat qui a poussé EDF, Total et Thales à unir leurs forces… et leurs chercheurs. Les trois groupes ont ouvert début février sur le plateau de Saclay, au sudouest de Paris, leur premier laboratoire commun. Son but : développer une IA dite « de confiance », c’est-à-dire suffisamment sûre pour servir dans les systèmes critiques, qu’il s’agisse de centrales nucléaires, de voitures autonomes ou de tours de contrôle. La question mobilise déjà de nombreuses équipes de recherche dans le monde. La stratégie européenne sur l’intelligence artificielle, présentée le 19 février, vise ainsi à « créer les conditions de la confiance » dans l’IA, en droite ligne d’un rapport rédigé l’an dernier par 52 experts de haut niveau. Aux Etats-Unis, la Darpa, l’agence de recherche avancée du Pentagone, finance plusieurs programmes sur ce thème. Mais, à ce jour, personne ne sait comment y parvenir. « C’est un sujet sur lequel il n’y a pas beaucoup de solutions claires », indique Bernard Salha, directeur R&D d’EDF.
Le premier chantier porte sur la fiabilité. Certes, elle est en amélioration constante : dans la reconnaissance faciale, le taux d’erreur est passé de 4 % à 0,2 % en cinq ans, selon une étude réalisée en 2018 sur plus de 120 logiciels. Mais, dans certains cas, une marge d’inexactitude, même infime, est inacceptable. « Dans un système critique, on ne peut pas se permettre d’erreur, explique Marie-Noëlle Semeria, directrice R&D de Total. On ne peut se satisfaire de l’intelligence artificielle qui est utilisée majoritairement par les Gafa. » Comme le résume Marko Erman, directeur scientifique de Thales : « L’avionique, le transport ferroviaire ou l’automobile ont besoin d’une IA qui soit non pas bonne, mais très bonne. »
Le deuxième défi porte sur l’« explicabilité », c’est-à-dire la possibilité d’expliquer comment un système d’IA a pris telle ou telle décision. Car, à la différence de l’informatique classique, fondée sur des règles logiques, le deep learning repose sur des statistiques : les systèmes « apprennent » à partir d’une très grande quantité de données (des visages, des phrases, des chiffres, etc.). Mais les paramètres sont si complexes qu’il est impossible de savoir quelles données ont pesé dans la décision, et de quelle manière. Ce n’est pas très grave quand il s’agit de classer vos photos, mais, en cas d’accident sur une voiture autonome, c’est fondamental. « Dans nos domaines, il faut pouvoir avoir accès à la causalité », estime Marie-Noëlle Semeria.
Pour l’heure, le laboratoire ne compte qu’une quinzaine de chercheurs issus des trois groupes fondateurs. D’ici à l’été, il s’ouvrira au monde universitaire en accueillant ses premiers thésards, qui seront sans doute suivis par des chercheurs d’autres entreprises – notamment celles qui ont signé l’an dernier un « manifeste pour l’IA au service de l’Industrie », comme Michelin ou Renault. En revanche, Total, EDF et Thales n’envisagent pas de s’ouvrir à des entreprises étrangères. « Notre priorité est de travailler avec des acteurs français », confirme Bernard Salha. La recherche, très largement dominée par les Etats-Unis et la Chine, est devenue un enjeu majeur de compétitivité et de souveraineté.