Les biais de l’intelligen­ce ar­ti­fi­cielle en ques­tion

La Tribune Hebdomadaire - - TECHNOLOGI­E -

PRO­GRAM­MA­TION

La f ameuse « boîte noire » de l’intelligen­ce ar­ti­fi­cielle, c’est-à-dire le manque de trans­pa­rence dans le pro­ces­sus de dé­ci­sion d’un al­go­rithme, pose un vrai pro­blème pour l’adop­tion mas­sive de cette tech­no­lo­gie.

intelligen­ce ar­ti­fi­cielle prend de plus en plus de place dans les dé­ci­sions stra­té­giques des en­tre­prises. Ses champs d’ap­pli­ca­tions vont de l’iden­ti­fi­ca­tion des chan­tiers prio­ri­taires pour les en­tre­prises du BTP, à l’éva­lua­tion du risque de dé­faut au mo­ment d’émettre un prêt pour les banques, en pas­sant par l’iden­ti­fi­ca­tion des meilleurs pros­pects dans le re­cru­te­ment. Les lo­gi­ciels per­mettent d’éco­no­mi­ser de précieuses heures, voire jours, en plus de rendre les choix plus per­ti­nents… dans la ma­jo­ri­té des cas. Car l’intelligen­ce ar­ti­fi­cielle n’échappe pas aux biais. En 2016, des jour­na­listes de l’ONG ProPu­bli­ca avaient ré­vé­lé qu’un lo­gi­ciel d’éva­lua­tion des risques de ré­ci­dive, Com­pas, très uti­li­sé dans les tri­bu­naux amé­ri­cains, se trom­pait deux fois plus pour les condam­nés noirs que pour les blancs. Le pro­blème est que les biais des al­go­rithmes sont dif­fi­ci­le­ment re­pé­rables. Si le lo­gi­ciel re­pose sur l’ap­pren­tis­sage ma­chine, alors on ne sait pas re­tra­cer, étape par étape, les dé­ci­sions qui ont me­né à la re­com­man­da­tion fi­nale. C’est le phé­no­mène de la boîte noire!: on connaît la pro­blé­ma­tique et sa so­lu­tion, mais pas ce qu’il se passe entre les deux. Bien sûr, les dé­ve­lop­peurs savent ce qu’est cen­sé faire le pro­gramme, mais ils ne peuvent que de­vi­ner l’arbre de dé­ci­sion qui a me­né au ré­sul­tat.

Dès lors, dif­fi­cile de faire confiance aux in­tel­li­gences ar­ti­fi­cielles pour des dé­ci­sions cri­tiques, à moins de pou­voir les au­di­ter et tra­cer leurs choix. En France, le pro­jet TransAl­go, me­né par l’In­ria, a été lan­cé en 2018 pour ré­pondre à cette de­mande, avec deux axes de re­cherche. D’un côté, des mé­thodes d’« au­di­ta­bi­li­té » des al­go­rithmes, et de l’autre, une nou­velle gé­né­ra­tion d’al­go­rithmes, construits pour être trans­pa­rents. La no­tion de trans­pa­rence, au sens de l’In­ria, in­duit que l’on a ac­cès au code de l’al­go­rithme, que l’on connaît la pro­ve­nance des don­nées et que l’on peut re­tra­cer ces cal­culs.

COM­PRENDRE ET IDEN­TI­FIER

En at­ten­dant le fruit de ces re­cherches, les ac­teurs de l’IA contournen­t le pro­blème de la boîte noire. « Il faut être trans­pa­rent avec les clients, dis­tin­guer ce qui est tra­çable et quand on ne sait pas le faire », pré­co­nise Michel Morvan, fon­da­teur de Cos­mo Tech et ex­pert en IA au­près de l’OCDE. RTE uti­lise un lo­gi­ciel dé­ve­lop­pé par la startup pour éva­luer à moyen terme ses prises de dé­ci­sion dans la main­te­nance et le re­nou­vel­le­ment d’équi­pe­ments nu­cléaires. Lo­gi­que­ment, le ges­tion­naire d’élec­tri­ci­té veut pou­voir com­prendre les dé­ci­sions. Cos­mo Tech s’est donc pas­sé au­tant que pos­sible de l’ap­pren­tis­sage au­to­ma­tique dans son al­go­rithme d’intelligen­ce ar­ti­fi­cielle, et pro­pose d’iden­ti­fier les dé­ci­sions su­jettes à la boîte noire. Des pré­cau­tions es­sen­tielles, car, à l’heure ac­tuelle, la res­pon­sa­bi­li­té des dé­ve­lop­peurs n’est pas écar­tée en cas de dé­faut de l’IA. « C’est pour ça que per­sonne ne veut être le pro­prié­taire d’un lo­gi­ciel de conduite au­to­nome. Mais quand je construis un lo­gi­ciel d’intelligen­ce ar­ti­fi­cielle avec mes clients, ils doivent me don­ner leur confiance », avance Da­niel Co­va­cich, chief da­ta of­fi­cer de la startup Brain­ci­ties Lab. Si l’on ne peut pas re­tra­cer les dé­ci­sions qui mènent à un ac­ci­dent, les dé­ve­lop­peurs pour­raient être dé­si­gnés cou­pables.

« Il faut être trans­pa­rent avec les clients, dis­tin­guer ce qui est tra­çable et quand on ne sait pas le faire »

MICHEL MORVAN,

FON­DA­TEUR DE COS­MO TECH

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.