Comment IBM « ouvre la boîte noire » de l’in­tel­li­gence ar­ti­fi­cielle

La Tribune Hebdomadaire - - ÉDITO -

Pour que l’in­tel­li­gence ar­ti­fi­cielle ne fasse plus peur et qu’on ac­cepte qu’elle prenne des dé­ci­sions à notre place sur la base de mo­dèles pré­dic­tifs et au­to-ap­pre­nants, il faut que les hommes soient ca­pables de la com­prendre et de la maî­tri­ser. C’est au­jourd’hui le plus grand frein à son dé­ploie­ment, à la fois au sein des en­tre­prises, mais aus­si dans la so­cié­té tout en­tière. Car l’IA, comme le big da­ta d’ailleurs, fonc­tionne comme une boîte noire : conçus dans l’opa­ci­té, les al­go­rithmes abou­tissent à des dé­ci­sions que leurs concep­teurs n’ex­pliquent pas, ou dans un lan­gage in­ac­ces­sible au grand pu­blic. Le scan­dale au­tour de Par­cour­sup, dont l’al­go­rithme fonc­tionne avec des don­nées mais sans IA, montre bien que la confiance et la trans­pa­rence sont le plus grand dé­fi de l’ère de la don­née reine. L’en­tre­prise amé­ri­caine IBM, pion­nière de l’in­tel­li­gence ar­ti­fi­cielle avec son pro­gramme Wat­son, a dé­ci­dé de s’at­ta­quer au pro­blème en com­mer­cia­li­sant, à par­tir du 19 sep­tembre, une nou­velle so­lu­tion lo­gi­cielle ca­pable d’« ou­vrir la boîte noire » de l’IA. Cette sous-couche des­ti­née aux en­tre­prises s’ap­puie sur une tech­no­lo­gie mai­son. Elle est ca­pable de dé­tec­ter au­to­ma­ti­que­ment les biais des al­go­rithmes afin d’en di­mi­nuer l’in­fluence, et d’ex­pli­quer en temps réel, dans des termes « fa­ciles à com­prendre » comment l’IA prend les dé­ci­sions, ce qui per­met à l’uti­li­sa­teur d’en « gar­der la maî­trise », ex­plique Jean-Phi­lippe Des­biolles, vi­ce­pré­sident Cog­ni­tive So­lu­tions à IBM France : « L’uti­li­sa­teur pour­ra com­prendre en temps réel comment le mo­dèle d’IA a abou­ti à une dé­ci­sion. Il pour­ra ac­cé­der, dans des termes clairs, aux élé­ments de re­com­man­da­tion uti­li­sés par l’IA, et com­prendre sur quels faits et don­nées ils sont ba­sés. C’est comme un au­dit en temps réel de l’IA, une tra­ça­bi­li­té qui per­met de don­ner du sens aux dé­ci­sions sur des élé­ments dignes de confiance et à va­leur ajou­tée, la dé­ci­sion pou­vant être re­fu­sée si le pro­ces­sus est ju­gé in­sa­tis­fai­sant. » Ces nou­velles ca­pa­ci­tés de confiance et de trans­pa­rence fonc­tionnent avec des mo­dèles construits à par­tir d’une grande va­rié­té de « fra­me­works » (sys­tèmes) de ma­chine lear­ning tels que IBM Wat­son, Azu­reML, AWS Sa­geMa­ker, Ten­sor­flow et SparkML, soit la plu­part des cadres d’IA po­pu­laires uti­li­sés par les en­tre­prises. Le ser­vice peut aus­si être pro­gram­mé pour « sur­veiller les fac­teurs de dé­ci­sion uniques de tout flux de tra­vail de l’en­tre­prise, ce qui per­met de l’adap­ter à l’uti­li­sa­tion spé­ci­fique de chaque or­ga­ni­sa­tion ». L’autre par­ti­cu­la­ri­té du lo­gi­ciel, c’est-à-dire sa ca­pa­ci­té à dé­ce­ler et à ex­pli­quer les biais des dé­ci­sions al­go­rith­miques en temps réel et pour toutes les or­ga­ni­sa­tions, est une pre­mière mon­diale, d’après IBM. « Les biais sont in­hé­rents à l’IA dans la me­sure où elle est pro­gram­mée par des hommes et des femmes. Notre sys­tème per­met de dé­tec­ter le biais au mo­ment même où il ap­pa­raît. Par exemple, lors­qu’il sug­gère une dé­ci­sion sur les bases des jeux de don­nées qu’il a à dis­po­si­tion – par exemple re­fu­ser une po­lice d’as­su­rance à une per­sonne de 22 ans –, il va aus­si in­for­mer l’as­su­reur que cette po­lice a été ap­prou­vée à 91 % pour les clients entre 31 ans et 55 ans, mais seule­ment à 52 % pour les 18-24 ans. Cette in­for­ma­tion de­vient en­fin vi­sible, en temps réel, ce qui per­met au client de la prendre en compte » , ajoute Jean-Phi­lippe Des­biolles, qui tra­vaille sur l’IA pour IBM de­puis une di­zaine d’an­nées. Le lo­gi­ciel re­com­mande aus­si des don­nées à ajou­ter au mo­dèle pour at­té­nuer tout biais qu’il a dé­tec­té. IBM in­dique aus­si mettre à dis­po­si­tion de la com­mu­nau­té open source la boîte à ou­tils AI Fair­ness 360, une bi­blio­thèque d’al­go­rithmes, de codes et de tu­to­riels in­édits des­ti­née à per­mettre aux uni­ver­si­taires, aux cher­cheurs et aux spé­cia­listes des don­nées de conce­voir et d’in­té­grer des so­lu­tions de dé­tec­tion des biais dans les fu­turs mo­dèles d’IA. IBM es­père que sa so­lu­tion va lui per­mettre de dé­ve­lop­per son ac­ti­vi­té IA et po­pu­la­ri­ser Wat­son, tout en fai­sant pro­gres­ser l’en­semble de l’in­dus­trie sur la ques­tion de la trans­pa­rence des al­go­rithmes et de la lutte contre les biais. L’en­jeu bu­si­ness est fort pour le géant amé­ri­cain, qui a me­né une étude au­près de 5 000 dé­ci­deurs en 2018 sur la confiance qu’ils ont dans l’IA. Ver­dict: « Si 94 % des son­dés sont convain­cus que l’IA est un su­jet de com­pé­ti­ti­vi­té stra­té­gique ma­jeur et un atout pour se dif­fé­ren­cier de la concur­rence, à peine 35 % ont un ni­veau de confiance éle­vé, donc ac­cep­table, dans leur propre or­ga­ni­sa­tion pour tout ce qui touche à l’ana­ly­tics ou à l’IA », dé­crit Jean-Phi­lippe Des­biolles. Il reste du pain sur la planche.

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.