La Ville de Pan­tin soigne la qua­li­té de vie de ses ci­toyens

Les chat­bots au sens large du terme se­raient la fu­ture in­ter­face uti­li­sa­teur. Au-de­là du gad­get, leur dé­ve­lop­pe­ment re­lève de pro­jets sou­vent com­plexes et im­po­sant une in­té­gra­tion avec le sys­tème d’in­for­ma­tion.

IT for Business - - SOMMAIRE - Thier­ry Lé­vy-abé­gno­li

Ja­dis agents conver­sa­tion­nels, ils ont été una­ni­me­ment re­bap­ti­sés chat­bots quand Fa­ce­book a lan­cé en avril 2016 une API per­met­tant de les pu­blier sur Mes­sen­ger. Ce fut le coup d’en­voi d’une fièvre qui n’est ja­mais re­tom­bée. Elle s’ex­plique par la con­jonc­tion entre ma­tu­ri­té et be­soins. Ma­tu­ri­té des éco­sys­tèmes, car les mes­sa­ge­ries ins­tan­ta­nées, dé­jà plé­bis­ci­tées, se sont presque toutes do­tées D’API. Ma­tu­ri­té tech­no­lo­gique, avec la ba­na­li­sa­tion d’al­go­rithmes statistiques et neu­ro­naux ca­pables de tra­vailler sur de très grandes quan­ti­tés de don­nées.

UN BE­SOIN LONG­TEMPS LA­TENT FAUTE DE SO­LU­TIONS

Cette fièvre se­rait re­tom­bée sans un be­soin im­pé­rieux et déses­pé­ré­ment an­cien : les en­vi­ron­ne­ments gra­phiques, même tac­tiles, n’ont ja­mais réus­si à faire ou­blier que le lan­gage na­tu­rel reste l’in­ter­face homme-ma­chine la plus convi­viale, car il n’im­pose au­cun ef­fort d’adap­ta­tion de la part… de l’homme.

De fa­çon plus prag­ma­tique, le chat­bot ré­pond à un be­soin d’au­to­ma­ti­sa­tion mas­sive des in­ter­ac­tions pour en faire bais­ser les coûts. On cherche alors à

dé­char­ger les hu­mains des tâches ba­siques — qua­li­fi­ca­tion des de­mandes com­plexes ou ré­so­lu­tion des de­mandes simples — pour qu’ils se consacrent aux tâches à forte va­leur ajou­tée. On cherche aus­si à ré­pondre en temps réel et en mode 24/24. On voit éga­le­ment poindre le be­soin d’as­sis­ter les hu­mains en leur ap­por­tant une ex­per­tise ou des in­for­ma­tions qu’ils ignorent. En­fin, le chat­bot est sy­no­nyme de constance et de pré­ci­sion lors­qu’il s’agit de re­pré­sen­ter l’en­tre­prise en dé­li­vrant à grande échelle un mes­sage. « Un chat­bot ne connaît pas la no­tion de men­songe qui ac­com­pagne par­fois une dé­marche com­mer­ciale, car il n’in­vente pas des ré­ponses qu’il n’a pas » , com­plète Jean-philippe Des­biolles, vice-pré­sident Co­gni­tive So­lu­tions chez IBM France.

Le do­maine d’ap­pli­ca­tion le plus évident concerne la re­la­tion client. Il s’agit tout d’abord de ré­pondre aux ques­tions fré­quentes des uti­li­sa­teurs, mais aus­si de ré­soudre leurs pro­blèmes. « C’est alors plus com­plexe car il faut in­té­grer le contexte de l’uti­li­sa­teur » , ex­plique Cy­rille Ba­tal­ler, di­rec­teur tech­no­lo­gies émer­gentes chez Ac­cen­ture. Autres ap­pli­ca­tions : le conseil à la vente, le sui­vi de com­mande ou la mo­di­fi­ca­tion de comptes uti­li­sa­teurs. Dans l’en­tre­prise, les chat­bots pour­raient aus­si of­frir une in­ter­face pour pi­lo­ter des lo­gi­ciels mé­tiers. Au lieu de na­vi­guer dans des me­nus, un em­ployé de­man­de­rait par exemple si tel pro­duit est en stock. Tous les mé­tiers sont concer­nés, même la DSI. L’édi­teur Dy­na­trace vient ain­si de lan­cer Da­vis, un chat­bot qui cha­peaute une so­lu­tion de su­per­vi­sion pour ré­pondre à des ques­tions sur les per­for­mances du sys­tème d’in­for­ma­tion.

UN PRO­JET CEN­TRÉ SUR L’IDEN­TI­FI­CA­TION ET LE TRAI­TE­MENT D’IN­TEN­TIONS

Un chat­bot ana­lyse des ques­tions cor­res­pon­dant à des in­ten­tions dont cha­cune doit être préa­la­ble­ment iden­ti­fiée et trai­tée par une ré­ponse ou plus gé­né­rale-

ment, un pro­ces­sus. Ces in­ten­tions-ré­ponses consti­tue­ront sa base de connais­sances. « Il faut d’abord dé­fi­nir l’ob­jec­tif. Si 80 % des ques­tions sont com­prises, on cou­vri­ra gé­né­ra­le­ment 98 % des de­mandes. Si on veut com­prendre 98 % des ques­tions, donc presque 100 % des de­mandes, on de­vra trai­ter les plus rares » , af­firme Scott Wi­ck­ware, se­nior exe­cu­tive chez Nuance Com­mu­ni­ca­tions.

L’iden­ti­fi­ca­tion des in­ten­tions peut être plus ou moins au­to­ma­ti­sée grâce à une ana­lyse de masses de don­nées. « 80 % d’entre elles viennent de l’en­tre­prise et sont sou­vent non struc­tu­rées : fiches pro­duits, ar­gu­men­taires de vente, ou en­core notes d’ana­lystes », ex­plique Jean-philippe Des­biolles (IBM). Il s’agit éga­le­ment de FAQ, de scripts pour té­lé­opé­ra­teurs, d’his­to­riques d’e-mails ou de conver­sa­tions. « On es­saie aus­si, en ana­ly­sant les écrans de l’agent, de voir ce qu’il fait pour ré­pondre aux ques­tions : na­vi­ga­tion web, uti­li­sa­tion de dif­fé­rents lo­gi­ciels… » , ajoute pour sa part Christophe Le­gras, cher­cheur au XRCE de Xe­rox. D’autres don­nées sont ex­ternes, par exemple ex­traites de Google ou de Wi­ki­pe­dia. « La dif­fi­cul­té n’est pas tant d’avoir des don­nées que d’iden­ti­fier et de qua­li­fier celles qui ont de la va­leur » , in­siste Paul Ren­voi­sé, lead R&D chez Re­cast.ai.

AS­SO­CIER L’INFINITÉ DE QUES­TIONS RÉELLES À DES RÉ­PONSES PRÉ­CON­ÇUES

La forme de ces don­nées est mul­tiple : SQL, XML, texte, ta­bleau… « On agrège toutes ces sources hé­té­ro­gènes grâce à des al­go­rithmes qui re­cherchent des en­ti­tés dans des textes afin de les clas­si­fier » , ex­plique Ma­thieu Chan­geat, co­fon­da­teur de Doyou­drea­mup. Ce pro­ces­sus qui per­met d’iden­ti­fier toutes les in­ten­tions est gé­né­ra­le­ment se­mi-au­to­ma­tique, une in­ter­ven­tion hu­maine res­tant né­ces­saire pour struc­tu­rer et mettre en forme la base de connais­sances. Celle-ci contient toutes les ré­ponses pos­sibles et, donc, toutes les ques­tions en­vi­sa­gées. En re­vanche, il ne doit pas être né­ces­saire de pré­voir l’infinité de for­mu­la­tions pos­sibles. La so­lu­tion consiste à ima­gi­ner ou à cap­tu­rer quelques di­zaines de fa­çons de po­ser chaque ques­tion. Cette liste li­mi­tée fa­ci­li­te­ra une gé­né­ra­li­sa­tion, via des al­go­rithmes pro­cé­dant le cas échéant par ap­pren­tis­sage. Pour au­tant, ce map­ping entre ques­tions réelles et ré­ponses pré­con­çues n’est pas tou­jours pos­sible. Au­tre­ment dit, cer­taines ques­tions res­tent in­com­prises ou im­pré­cises. Dans ce cas, le

cha­bot en po­se­ra de nou­velles pour le­ver les am­bi­guï­tés. La mise en oeuvre de ce pro­ces­sus né­ces­site la créa­tion d’un en­chaî­ne­ment de ques­tions se­lon un arbre de dé­ci­sions dont on ima­gi­ne­ra tous les che­mins pos­sibles. Un tra­vail qui peut être très lourd, mais qui est in­con­tour­nable.

Lorsque la ré­ponse fi­nale est iden­ti­fiée, il est pos­sible de la per­son­na­li­ser dans sa for­mu­la­tion et son conte­nu se­lon des cri­tères liés aux clients, ce qui né­ces­site une connexion au sys­tème d’in­for­ma­tion : pro­fil gold, âge, his­to­rique des in­ter­ac­tions et achats, géo­lo­ca­li­sa­tion, heure ou jour… D’autres cri­tères concer­ne­ront le ton de la conver­sa­tion. La phrase de ré­ponse se­ra construite à par­tir d’un sque­lette (ou tem­plate) dont on rem­pli­ra les trous se­lon ces cri­tères.

RÉ­SEAU DE NEU­RONES,ANA­LYSE STA­TIS­TIQUE OU RÈGLES

Les al­go­rithmes in­ter­viennent à dif­fé­rents ni­veaux. En amont, pour ana­ly­ser et ca­té­go­ri­ser les don­nées de l’en­tre­prise afin d’iden­ti­fier les in­ten­tions. En pro­duc­tion, pour ca­té­go­ri­ser les ques­tions des gens afin de les orien­ter vers une ré­ponse ou un pro­ces­sus. Mais aus­si pour dé­tec­ter le ton, l’émo­tion, le type de mes­sage (ques­tion, af­fir­ma­tion…). Ces al­go­rithmes sont de trois types. Les pre­miers sont à base de règles qui pro­cèdent soit par simple iden­ti­fi­ca­tion de mots-clés, soit par ana­lyse syn­taxique ou sé­man­tique. « On consti­tue un mo­teur ba­sé sur un dic­tion­naire des concepts qui re­con­naît sy­no­nymes et fautes d’or­tho­graphe. Par exemple, un client qui par­le­ra de chien se­ra orien­té vers une ré­ponse liée aux ani­maux do­mes­tiques » , illustre Olivier Njamfa, fon­da­teur d’eptica. D’autres al­go­rithmes re­lèvent du ma­chine lear­ning. Ain­si, l’ap­proche sta­tis­tique, da­van­tage au­to­ma­ti­sable, per­met une gé­né­ra­li­sa­tion ra­pide à par­tir d’un nombre as­sez mo­deste de don­nées. En­fin, l’ap­proche à base de ré­seaux de neu­rones — on parle de deep lear­ning —, sy­no­nyme d’au­to­ma­ti­sa­tion pous­sée, im­pose de gros vo­lumes de don­nées. « Mais à moyen terme, les ré­sul­tats sont plus per­ti­nents qu’avec l’ap­proche sta­tis­tique » , constate Jas­mine An­teu­nis, co­fon­da­trice de Re­cast.ai. Dif­fé­rents al­go­rithmes peuvent être com­bi­nés. Chez Xe­rox, un rou­teur oriente ain­si les ques­tions se­lon leur com­plexi­té vers le sys­tème à base de règles ou le mo­teur sta­tis­tique.

UNE COM­PLÉ­MEN­TA­RI­TÉ DU CHAT­BOT ET DE L’HU­MAIN

À l’aune de ces dif­fé­rentes étapes et tech­no­lo­gies, on com­prend que la réa­li­sa­tion d’un chat­bot né­ces­site une col­la­bo­ra­tion entre plu­sieurs mé­tiers : agents de centres de contacts, ex­perts mé­tiers spé­cia­listes du pé­ri­mètre du chat­bot, ex­perts en trai­te­ment du lan­gage na­tu­rel et in­té­gra­teurs de don­nées du SI.

Pas­sée la phase de dé­ve­lop­pe­ment, l’hu­main a en­core un rôle à jouer. En pro­duc­tion, il peut va­li­der ou cor­ri­ger des ré­ponses in­adap­tées ou mal for­mu­lées, ou prendre le re­lais en cas d’in­com­pré­hen­sion. En ai­guillant les ques­tions non com­prises vers les bonnes ré­ponses, il ali­men­te­ra un mé­ca­nisme d’ap­pren­tis­sage qui per­met­tra d’amé­lio­rer leur ca­té­go­ri­sa­tion au­to­ma­tique. Cer­tains ou­tils de chat­bot pro­posent ain­si de gé­né­rer une nou­velle connais­sance lors­qu’ils dé­tectent des ques­tions in­com­prises au­tour d’un su­jet ré­cur­rent. « Du­rant cette ap­pren­tis­sage su­per­vi­sé, on ne laisse pas le mo­teur ap­prendre tout seul afin d’évi­ter tout dé­ra­page », pré­cise Ma­thieu Chan­geat.

DES SER­VICES CLOUD PACKAGÉS OU DES LI­BRAI­RIES OPEN SOURCE

L’offre est dis­pa­rate. De grands ac­teurs comme IBM, Mi­cro­soft ou Google pro­posent des ser­vices dans le cloud dé­diés au trai­te­ment du lan­gage na­tu­rel (es­sen­tiel­le­ment ba­sés sur des al­go­rithmes à base de ré­seaux neu­ro­naux), mais aus­si des ser­vices plus packagés de dé­ve­lop­pe­ment de chat­bots. Ces ac­teurs vont jus­qu’à four­nir des don­nées et re­con­naître des in­ten­tions stan­dards. Par exemple, Luis ( Lan­guage Un­ders­tan­ding In­tel­li­gent Ser­vice), de Mi­cro­soft, com­prend la cor­ré­la­tion entre « je re­cherche un res­tau­rant » et « j’ai faim ». De plus, il re­con­naît des pa­ra­mètres de type « quand et où ? » et pose les ques­tions cor­res­pon­dantes. Il gère éga­le­ment les paie­ments et l’au­then­ti­fi­ca­tion ex­terne.

Des édi­teurs de taille moyenne comme Nuance, Xe­rox, Eptica ou egain pro­posent aus­si des pla­te­formes de dé­ve­lop­pe­ment de chat­bots. Et il reste une place pour des start-up comme les fran­çais Re­cast.ai ou Doyou­drea­mup, qui uti­lisent les ser­vices de Google ou D’IBM, ou des al­go­rithmes open source comme Caffe, Google Ten­sor­flow, Mi­cro­soft CNTK ou Ama­zon DSSTNE ( Deep Sca­lable Sparse Ten­sor Net­work En­gine). « Ils offrent plus de pos­si­bi­li­tés de per­son­na­li­sa­tion et de contrôle que des ser­vices pré­con­fi­gu­rés comme IBM Wat­son » , ex­plique Cy­rille Ba­tal­ler. En­fin, de nom­breux in­té­gra­teurs et agences di­gi­tales in­ves­tissent ce cré­neau. La fron­tière entre édi­teurs et dé­ve­lop­peurs est alors par­fois floue. Ain­si, IBM, Nuance ou Xe­rox mettent en avant des équipes d’in­gé­nieurs per­met­tant de me­ner de bout en bout des pro­jets de chat­bots. •

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.