Ins­tau­rer la confiance en l’in­tel­li­gence ar­ti­fi­cielle

IT for Business - - SOMMAIRE - LAURENT DELATTRE

Pour que Ter­mi­na­tor reste une fic­tion, les cher­cheurs D’IBM pro­posent une so­lu­tion Saas ca­pable de dé­tec­ter lorsque des sys­tèmes d’in­tel­li­gence ar­ti­fi­cielle prennent des dé­ci­sions biai­sées suite à des don­nées d’ap­pren­tis­sage trop par­cel­laires ou à des pa­ra­mètres er­ro­nés au sein des al­go­rithmes.

Une ré­cente étude me­née par l’ins­ti­tute for Bu­si­ness Va­lue D’IBM ré­vèle que même si 82% des en­tre­prises en­vi­sagent de dé­ployer l’in­tel­li­gence ar­ti­fi­cielle, 60% craignent les pro­blèmes de res­pon­sa­bi­li­té et 63% n’ont pas les com­pé­tences in­ternes né­ces­saires pour gé­rer cette tech­no­lo­gie en toute confiance. L’étude met ain­si en exergue les pro­blèmes de res­pon­sa­bi­li­té, de per­ti­nence et de vé­ra­ci­té des dé­ci­sions prises par les so­lu­tions d’in­tel­li­gence ar­ti­fi­cielle. Des pro­blèmes aux di­men­sions à la fois tech­niques, ju­ri­diques et éthiques.

En mai der­nier, lors de Vi­va­tech, Gin­ni Ro­met­ty, CEO D’IBM, rap­pe­lait qu’ « il ne peut y avoir D’IA sans confiance. Le but de L’IA est d’aug­men­ter et non pas de rem­pla­cer l’es­prit hu­main. Les don­nées, ana­lyses et ob­ser­va­tions que nous four­nit L’IA doivent res­ter la pleine pro­prié­té de l’uti­li­sa­teur. En consé­quence, L’IA doit im­pé­ra­ti­ve­ment être trans­pa­rente, com­pré­hen­sible et ex­pli­cable » .

Les mo­teurs de ma­chine lear­ning et de deep lear­ning sont souvent pré­sen­tés comme des boîtes noires dans les­quelles per­sonne ne sait trop ce qui se passe. Comment faire pour que ce ne soit plus le cas ? Il faut d’une part pou­voir maî­tri­ser les don­nées uti­li­sées pour l’ap­pren­tis­sage et d’autre part pou­voir éclai­rer ce qui se passe au sein des ré­seaux de neu­rones pro­fonds, pou­voir maî­tri­ser les al­go­rithmes. Dans l’uni­vers du deep lear­ning, tra­ça­bi­li­té et ex­pli­ca­bi­li­té sont des chal­lenges dif­fi­ciles à re­le­ver même si toutes les tech­niques IA ne sont pas aus­si obs­cures et que les mo­teurs de règles, par exemple, offrent da­van­tage de tra­ça­bi­li­té.

La maî­trise des don­nées d’ap­pren­tis­sage d’un ré­seau de neu­rones pro­fonds est une pro­blé­ma­tique aus­si cri­tique que celle des al­go­rithmes qui mo­dèlent le trai­te­ment. D’elles dé­pend en grande par­tie la dé­li­cate pro­blé­ma­tique des biais. Aux États-unis par exemple, une IA aide les juges à dé­ci­der de la re­mise en li­ber­té condi­tion­nelle. Elle dé­fa­vo­ri­sait au dé­part sys­té­ma­ti­que­ment les gens de cou­leur car les don­nées uti­li­sées pour l’en­traî­ner n’étaient pas équi­tables, en­gen­drant ce que l’on ap­pelle un « biais ». Ces biais peuvent ve­nir des don­nées elles-mêmes, mais aus­si des pa­ra­mètres du ré­seau de neu­rones. Ils sont le ta­lon d’achille de tout sys­tème à base D’IA des­ti­né à prendre des dé­ci­sions ou gui­der des hu­mains dans leurs dé­ci­sions.

IBM vient d’ap­por­ter une pre­mière brique pra­tique pour non seule­ment dé­tec­ter au­to­ma­ti­que­ment ces biais, mais éga­le­ment « ex­pli­quer » les dé­ci­sions au­to­ma­tiques émises par les so­lu­tions de ma­chine lear­ning. Ce ser­vice cloud est com­pa­tible avec Wat­son ML, bien sûr, mais éga­le­ment avec Ten­sor­flow, Sparkml, AWS Sa­ge­ma­ker et Azu­reml. Au­to­ma­ti­sé, il ex­plique la prise de dé­ci­sion et dé­tecte les biais dans les mo­dèles D’IA au mo­ment­même où les dé­ci­sions doivent être prises. Il si­gnale les ré­sul­tats po­ten­tiel­le­ment in­justes, biai­sés, voire er­ro­nés, lors de l’exé­cu­tion. Mieux en­core, il re­com­mande des don­nées à ajou­ter au mo­dèle pour ai­der à at­té­nuer les biais dé­tec­tés. L’idée d’un tel sys­tème n’est pas nou­velle : Ac­cen­ture avait no­tam­ment pré­sen­té un ou­til équi­valent, AI Fair­ness Tool, au prin­temps der­nier. Mais c’est la pre­mière fois qu’il est ex­po­sé sous forme d’un ser­vice Saas ac­ces­sible aux uti­li­sa­teurs fi­naux et est ca­pable de four­nir des in­for­ma­tions com­pré­hen­sibles par le com­mun des mor­tels. Pour don­ner plus de trans­pa­rence à leur dé­marche, les cher­cheurs D’IBM ont éga­le­ment pu­blié en open source un tool­kit bap­ti­sé AI Fair­ness 360 (AIF360), com­po­sé d’al­go­rithmes et d’uti­li­taires per­met­tant aux cher­cheurs, da­ta scien­tists et dé­ve­lop­peurs d’in­cor­po­rer une dé­tec­tion des biais et une tra­ça­bi­li­té dans leurs propres mo­dèles et mo­teurs de deep lear­ning. Une pre­mière étape im­por­tante vers des IA ex­pli­cables et de confiance…

Les mo­teurs de ma­chine lear­ning et de deep lear­ning sont souvent pré­sen­tés comme des boîtes noires dans les­quelles per­sonne ne sait trop ce qui se passe...

L’ex­pli­ca­bi­li­té est l’un des fac­teurs d’adop­tion ma­jeurs de l’in­tel­li­gence ar­ti­fi­cielle au sein de nom­breux pro­ces­sus de dé­ci­sion.

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.