Dé­my­thi­fier l’IA

Me­naces sur l’em­ploi, per­pé­tua­tion des dis­cri­mi­na­tions, manque de trans­pa­rence… Mi­chèle Se­bag, di­rec­trice du La­bo­ra­toire de Re­cherche In­for­ma­tique (LRI) du CNRS, pointe les risques d’une so­cié­té gou­ver­née par les al­go­rithmes. + Notre in­fo­gra­phie : l’écos

La Tribune Hebdomadaire - - LA UNE - PRO­POS RECUEILLIS PAR SYL­VAIN ROLLAND ET FRAN­ÇOIS MANENS

LA TRI­BUNE – On en­tend sou­vent que l’in­tel­li­gence ar­ti­fi­cielle (IA) va ré­vo­lu­tion­ner tous les sec­teurs, ce qui en­gendre son lot de craintes dans la so­cié­té. Qu’en est-il réel­le­ment au­jourd’hui!?

MI­CHÈLE SE­BAG – L’in­tel­li­gence ar­ti­fi­cielle est dé­jà par­tout. De nom­breux ser­vices uti­lisent des al­go­rithmes de pré­dic­tion, de re­com­man­da­tion, brassent de grandes quan­ti­tés de don­nées et s’en servent pour four­nir une ré­ponse au­to­ma­tique à un pro­blème. La réa­li­té, c’est que les gens sont confron­tés à l’IA tous les jours, sans for­cé­ment le sa­voir. Les mo­dèles éco­no­miques des géants du Net comme Google, par exemple, ac­cé­lèrent cette ac­cul­tu­ra­tion. Grâce à des in­ter­faces pra­tiques et simples, qui cachent la com­plexi­té de la tech­no­lo­gie qu’il y a der­rière, Google a im­po­sé des ser­vices très po­pu­laires, qui, en re­tour, lui offrent de grandes quan­ti­tés de don­nées pour en­ri­chir ses al­go­rithmes et créer de nou­veaux ser­vices. De ma­nière gé­né­rale, le mo­dèle du Web est as­sez ver­tueux pour l’in­no­va­tion. En don­nant ac­cès gra­tui­te­ment sur un site en ligne, par exemple, aux don­nées sur les symp­tômes des ma­la­dies, ce­lui qui peut ana­ly­ser grâce à un al­go­rithme les de­mandes faites sur ce site peut voir avant les au­to­ri­tés de san­té qu’il y a une épi­dé­mie de grippe à tel en­droit. C’est très utile pour la so­cié­té, et on ne sa­vait pas le faire avant.

Nous sommes donc plu­tôt confron­tés à des IA dites « faibles », en op­po­si­tion aux IA dites « gé­né­rales », c’est-à-dire au­to­nomes et ca­pables d’ap­prendre par elles-mêmes et d’in­ter­agir avec leur en­vi­ron­ne­ment sans in­ter­ven­tion de l’homme!?

Le c once ptd’ IA gé­né­rale me pa­raît un peu fu­meux, en tout cas il est clair que nous n’y sommes pas en­core, loin de là. Au­jourd’hui, l’in­tel­li­gence ar­ti­fi­cielle ré­sout des pro­blèmes très concrets, qui ont l’air par­fois tri­viaux, qui ne de­mandent pas tou­jours de grandes ca­pa­ci­tés de cal­cul, mais qui se­raient dif­fi­ciles à ré­soudre sans elle. Une ferme au Ja­pon, par exemple, uti­lise un ou­til de re­con­nais­sance d’images pour trier les bons et les mau­vais concombres. Comme l’al­go­rithme a été nour­ri avec des mil­liers de pho­tos de concombres, il sait les iden­ti­fier très ra­pi­de­ment, alors que ce se­rait plus long et moins ef­fi­cace à la main.

D’où les craintes concer­nant l’im­pact des in­tel­li­gences ar­ti­fi­cielles sur les mé­tiers et l’em­ploi, ren­for­cées à coups d’études alar­mistes…

Une part des in­quié­tudes du grand pu­blic sur l’IA, no­tam­ment son im­pact sur les mé­tiers, est par­fai­te­ment jus­ti­fiée. On com­mence à se rendre compte au­jourd’hui, et ce n’est pas une mau­vaise chose, que l’IA peut me­na­cer le contrat so­cial. La so­cié­té réa­lise que pro­té­ger les don­nées pri­vées est in­dis­pen­sable dans une si­tua­tion où des géants du Net, amé­ri­cains et chi­nois, do­minent l’éco­no­mie nu­mé­rique. La crainte est de se re­trou­ver dans une si­tua­tion kaf­kaïenne où un sys­tème nous connaît très bien, où nous ne sa­vons pas ce que ce sys­tème connaît au juste, et où nous ne pou­vons pas ar­gu­men­ter ses dé­ci­sions... Ce sys­tème est in­car­né par les Ga­fa bien sûr, mais pas seule­ment. En l’ab­sence de ré­gle­men­ta­tion, une so­cié­té dis­po­sant de nos don­nées de consom­ma­tion élec­trique peut connaître nos ha­bi­tudes de vie [comme EDF avec le comp­teur

Lin­ky, ndlr]. Ima­gi­nez que ces don­nées, et celles de votre té­lé­phone por­table, soient ac­ces­sibles à votre as­su­reur : sa­chant comment vous dor­mez, comment vous condui­sez, si vous faites du sport, etc., il pour­rait es­ti­mer très pré­ci­sé­ment vos risques, et af­fi­ner ses ta­rifs au ni­veau in­di­vi­duel. À un ni­veau gé­né­ral, on abou­tit à une rup­ture du contrat so­cial : si mon risque est faible et que je le sais, je n’ai pas be­soin d’aide, je peux donc me re­ti­rer du groupe, ce qui conduit à éle­ver la pres­sion sur les autres membres, qui sont donc ten­tés de se re­ti­rer s’ils le peuvent – et de fil en ai­guille on dé­tri­cote les struc­tures d’en­traide qui ont été mises en place au cours des siècles dans les so­cié­tés avan­cées. En per­met­tant de ré­duire l’in­cer­tain grâce à l’ana­lyse pré­dic­tive, l’IA pour­rait fra­gi­li­ser les fon­de­ments de la so­cié­té, ren­for­cer les in­éga­li­tés. Cette prise de conscience est im­por­tante pour une uti­li­sa­tion res­pon­sable de l’in­tel­li­gence ar­ti­fi­cielle.

Pour avoir confiance en l’IA et la faire ac­cep­ter par la so­cié­té, faut-il obli­ga­toi­re­ment sa­voir ou­vrir sa boîte noire, c’est-à-dire dé­cons­truire et sa­voir ex­pli­quer le pro­ces­sus de dé­ci­sion me­nant au ré­sul­tat fi­nal!?

L’ex­pli­ca­bi­li­té des al­go­rithmes est un champ de re­cherche en pleine ex­plo­sion en ce mo­ment. Il y a un vrai be­soin de traçabilit­é de l’IA pour pou­voir lui faire confiance, l’en­jeu est au­tant éco­no­mique que ju­ri­dique. De nom­breux sec­teurs sen­sibles, comme la dé­fense, l’éner­gie ou la fi­nance, ont be­soin de pou­voir au­di­ter les dé­ci­sions des al­go­rithmes. Dans le cas des voi­tures au­to­nomes, il faut être ca­pable de tra­cer la chaîne des res­pon­sa­bi­li­tés pour sa­voir à qui faire un pro­cès en cas d’ac­ci­dent. Tout ce­ci est cru­cial et d’une com­plexi­té in­ouïe.

Ce­ci dit, le manque de trans­pa­rence des al­go­rithmes n’est pas le seul fac­teur de crainte visà-vis de l’IA. Peut-être au­rait-on moins peur des ma­chines si on ne vou­lait pas à tout prix per­son­na­li­ser la tech­no­lo­gie. Tout est fait par exemple pour qu’Alexa, l’as­sis­tant vo­cal d’Ama­zon, soit consi­dé­rée comme un être hu­main : elle a un pré­nom, une voix agréable, elle peut faire des blagues et on lui parle comme à une per­sonne. Ce­la abo­lit les dis­tances entre l’hu­main et la tech­no­lo­gie, en­traîne une confu­sion de l’es­prit. De ma­nière gé­né­rale, j’ai l’im­pres­sion que les craintes vis-à-vis de l’IA tra­duisent une dé­fiance plus pro­fonde, un sen­ti­ment de perte de contrôle glo­bal qui se ma­ni­feste non seule­ment vis-à-vis de la tech­no­lo­gie, mais aus­si de la po­li­tique ou de la pla­nète. Ne met­tons pas tout sur le dos de l’IA&! L’une des craintes les plus fortes en ce mo­ment

est la prise de conscience que les biais so­cié­taux – ra­cisme, sexisme, dis­cri­mi­na­tions liées à l’âge... – peuvent être re­pro­duits par les in­tel­li­gences ar­ti­fi­cielles qui as­sistent la dé­ci­sion. Comment lut­ter contre ce phé­no­mène!?

Si on fa­brique des mo­dèles pré­dic­tifs à par­tir de jeux de don­nées dans les­quels il peut y avoir des biais en fonc­tion du sexe ou de l’ori­gine (par exemple dans les don­nées d’em­bauche), le mo­dèle ap­prend à par­tir de ces préjugés et donc risque de les gra­ver dans le marbre. Les mo­dèles ap­pris font en ef­fet le lien entre les don­nées et les dé­ci­sions, mais ils ne dis­posent pas de sens cri­tique. Ce­ci peut les en­traî­ner, s’ils sont en face de don­nées dou­teuses, à re­pro­duire par exemple des biais ra­cistes, des liens entre le mi­lieu so­cial et l’ac­cès à l’em­ploi. C’est cette fai­blesse qu’il faut chan­ger, et c’est no­tam­ment l’ob­jec­tif de l’ap­pren­tis­sage cau­sal. Nous vou­lons ju­gu­ler les biais di­rec­te­ment dans les don­nées, et être ca­pables de les mettre en évi­dence dans les mo­dèles exis­tants.

L’Eu­rope s’est en­ga­gée sur la voie d’une « IA éthique ». Faut-il in­ter­dire cer­tains usages, comme les armes lé­tales au­to­nomes!?

Il est dif­fi­cile de tra­cer un trait entre les armes lé­tales au­to­nomes et non au­to­nomes. Où met­tez-vous les tor­pilles par exemple&? De plus, il est ex­trê­me­ment com­pli­qué de lé­gi­fé­rer sur les usages. Comment ex­pli­quer à une ma­chine

« En per­met­tant de ré­duire l’in­cer­tain grâce à l’ana­lyse pré­dic­tive, l’IA pour­rait fra­gi­li­ser les fon­de­ments de la so­cié­té, ren­for­cer les in­éga­li­tés »

« En France, il est très bien de vou­loir pro­té­ger les don­nées personnell­es, mais les contrainte­s pour les uti­li­ser nous ra­len­tissent »

« don’t be evil » [ne soyez pas mal­veillants, ndlr], qui était le slo­gan de Google%? L’in­tel­li­gence ar­ti­fi­cielle est en­core un ani­mal sau­vage : ses pre­mières ap­pli­ca­tions concrètes sont là, mais le cadre éthique et ré­gle­men­taire reste, pour l’ins­tant, un vaste champ de mines. Réus­sir à ci­vi­li­ser l’IA de­man­de­rait que les ju­ristes, les po­li­ti­ciens et les scien­ti­fiques prennent le temps de se com­prendre pour s’ac­cor­der sur ce qu’une IA peut ou ne doit pas faire. Ce­ci est dé­jà dif­fi­cile, sa­chant que ju­ristes, po­li­ti­ciens et scien­ti­fiques ne parlent pas la même langue. Il fau­drait de sur­croît dé­fi­nir des moyens de me­su­rer si une IA a en­freint la loi, pour pou­voir la sanc­tion­ner le cas échéant%; s’il n’y a pas de sanc­tion pos­sible, la loi reste lettre morte.

Pour­tant, la stra­té­gie fran­çaise en IA a été im­pul­sée par le dé­pu­té et ma­thé­ma­ti­cien Cé­dric Villa­ni...

Il y a de­puis long­temps une in­cul­ture scien­ti­fique pro­fonde dans les hauts niveaux du pou­voir. Il se­rait hon­teux de dire qu’on n’a ja­mais lu Bal­zac, mais il n’y a au­cune honte à avouer qu’on ne com­prend pas les maths, les sta­tis­tiques ou la cau­sa­li­té… Cé­dric Villa­ni est l’ex­cep­tion qui confirme la règle. Son rap­port sur l’IA va dans le bon sens, ses constats sont justes. Mais dans un contexte de com­pé­ti­tion mon­diale, il faut al­ler très vite. Les cher­cheurs ont l’im­pres­sion que les po­li­tiques ne com­prennent pas les prio­ri­tés et les pra­tiques des scien­ti­fiques.

En tant que cher­cheuse, vous res­sen­tez la pres­sion de la com­pé­ti­tion mon­diale!?

Oui, ab­so­lu­ment%! Quand on voit le dy­na­misme et les moyens al­loués en Chine, aux États-Unis, voire au Ca­na­da et en Grande-Bre­tagne, dans la re­cherche en in­tel­li­gence ar­ti­fi­cielle, on a par­fois l’im­pres­sion en France de cou­rir avec les bras dans le dos. À ce titre, le RGPD peut consti­tuer un obs­tacle à la re­cherche. At­ten­tion, il est très bien de vou­loir pro­té­ger les don­nées personnell­es, mais les nom­breuses contrainte­s pour les uti­li­ser nous ra­len­tissent. Il faut al­ler vite et pour ce­la il nous faut plus d’ar­gent et moins de contrainte­s. Par exemple, em­bau­cher des gens com­pé­tents en IA est im­pos­sible avec la grille de sa­laire des fonc­tion­naires.

Les géants du Net, les fa­meux Ga­fam, re­crutent aus­si de plus en plus de cher­cheurs pour tra­vailler dans leurs la­bo­ra­toires privés...

C’est exact, on le constate ré­gu­liè­re­ment et c’est une vraie me­nace pour la re­cherche pu­blique, et donc pour la sou­ve­rai­ne­té tech­no­lo­gique de la France. Il n’est pas éton­nant qu’un char­gé de re­cherche qui gagne 2%000 eu­ros par mois parte chez Fa­ce­book, qui lui pro­pose dix fois plus. Ré­cem­ment, deux ex­cel­lents cher­cheurs ont re­joint Fa­ce­book Pa­ris. Bien sûr, ils re­viennent faire un peu de re­cherche avec nous, mais un jour par se­maine, dans le meilleur des cas. Ima­gi­nez qu’on prenne 10%% des meilleurs cher­cheurs d’un pays, vingt ans plus tard, ce pays en paie­ra chè­re­ment les consé­quences. C’est ce qui nous me­nace. À court terme, c’est l’en­sei­gne­ment qui trinque, parce que les cher­cheurs par­tis dans le pri­vé n’ont plus le temps d’en­sei­gner.

[COLLIN AN­DER­SON/GETTY]

Constat de Mi­chèle Se­bag : grâce à des in­ter­faces pra­tiques et simples, la po­pu­la­tion « est confron­tée à l’in­tel­li­gence ar­ti­fi­cielle tous les jours, sans for­cé­ment le sa­voir ».

[DR]

PER­SON­NA­LI­SER LA TECH­NO­LO­GIE, L’AUTRE CAUSE DE MÉ­FIANCE Pour Mi­chèle Se­bag, les in­quié­tudes vis-à-vis de l’IA « tra­duisent plus lar­ge­ment, un sen­ti­ment de perte de contrôle glo­bal » .

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.