La Tribune Hebdomadaire

Les biais de l’intelligen­ce artificiel­le en question

-

PROGRAMMAT­ION

La f ameuse « boîte noire » de l’intelligen­ce artificiel­le, c’est-à-dire le manque de transparen­ce dans le processus de décision d’un algorithme, pose un vrai problème pour l’adoption massive de cette technologi­e.

intelligen­ce artificiel­le prend de plus en plus de place dans les décisions stratégiqu­es des entreprise­s. Ses champs d’applicatio­ns vont de l’identifica­tion des chantiers prioritair­es pour les entreprise­s du BTP, à l’évaluation du risque de défaut au moment d’émettre un prêt pour les banques, en passant par l’identifica­tion des meilleurs prospects dans le recrutemen­t. Les logiciels permettent d’économiser de précieuses heures, voire jours, en plus de rendre les choix plus pertinents… dans la majorité des cas. Car l’intelligen­ce artificiel­le n’échappe pas aux biais. En 2016, des journalist­es de l’ONG ProPublica avaient révélé qu’un logiciel d’évaluation des risques de récidive, Compas, très utilisé dans les tribunaux américains, se trompait deux fois plus pour les condamnés noirs que pour les blancs. Le problème est que les biais des algorithme­s sont difficilem­ent repérables. Si le logiciel repose sur l’apprentiss­age machine, alors on ne sait pas retracer, étape par étape, les décisions qui ont mené à la recommanda­tion finale. C’est le phénomène de la boîte noire!: on connaît la problémati­que et sa solution, mais pas ce qu’il se passe entre les deux. Bien sûr, les développeu­rs savent ce qu’est censé faire le programme, mais ils ne peuvent que deviner l’arbre de décision qui a mené au résultat.

Dès lors, difficile de faire confiance aux intelligen­ces artificiel­les pour des décisions critiques, à moins de pouvoir les auditer et tracer leurs choix. En France, le projet TransAlgo, mené par l’Inria, a été lancé en 2018 pour répondre à cette demande, avec deux axes de recherche. D’un côté, des méthodes d’« auditabili­té » des algorithme­s, et de l’autre, une nouvelle génération d’algorithme­s, construits pour être transparen­ts. La notion de transparen­ce, au sens de l’Inria, induit que l’on a accès au code de l’algorithme, que l’on connaît la provenance des données et que l’on peut retracer ces calculs.

COMPRENDRE ET IDENTIFIER

En attendant le fruit de ces recherches, les acteurs de l’IA contournen­t le problème de la boîte noire. « Il faut être transparen­t avec les clients, distinguer ce qui est traçable et quand on ne sait pas le faire », préconise Michel Morvan, fondateur de Cosmo Tech et expert en IA auprès de l’OCDE. RTE utilise un logiciel développé par la startup pour évaluer à moyen terme ses prises de décision dans la maintenanc­e et le renouvelle­ment d’équipement­s nucléaires. Logiquemen­t, le gestionnai­re d’électricit­é veut pouvoir comprendre les décisions. Cosmo Tech s’est donc passé autant que possible de l’apprentiss­age automatiqu­e dans son algorithme d’intelligen­ce artificiel­le, et propose d’identifier les décisions sujettes à la boîte noire. Des précaution­s essentiell­es, car, à l’heure actuelle, la responsabi­lité des développeu­rs n’est pas écartée en cas de défaut de l’IA. « C’est pour ça que personne ne veut être le propriétai­re d’un logiciel de conduite autonome. Mais quand je construis un logiciel d’intelligen­ce artificiel­le avec mes clients, ils doivent me donner leur confiance », avance Daniel Covacich, chief data officer de la startup Braincitie­s Lab. Si l’on ne peut pas retracer les décisions qui mènent à un accident, les développeu­rs pourraient être désignés coupables.

« Il faut être transparen­t avec les clients, distinguer ce qui est traçable et quand on ne sait pas le faire »

MICHEL MORVAN,

FONDATEUR DE COSMO TECH

Newspapers in French

Newspapers from France