L’IA au ser­vice de la bê­tise hu­maine

Bilan - - Décryptage - PAR FA­BRICE DELAYE

L’in­tel­li­gence ar­ti­fi­cielle – et sin­gu­liè­re­ment l’une de ses tech­niques, le deep lear­ning – a in­con­tes­ta­ble­ment fait des pro­grès. Mais le su­jet est aus­si de­ve­nu la ma­chine à sen­sa­tions d’une ar­mée de pseu­do-ex­perts dont l’in­fluence vi­rale est in­ver­se­ment pro­por­tion­nelle à la com­pé­tence. Du coup, les scien­ti­fiques du do­maine donnent de la voix (lire page 12) afin d’évi­ter que cette comm ba­sée sur la si­dé­ra­tion ne dé­bouche sur des idio­ties.

D’abord, ils ex­pliquent qu’on ne com­prend pas en­tiè­re­ment ce qui se passe dans la boîte noire du deep lear­ning. Ils ont par exemple dé­cou­vert que la dis­tinc­tion d’un de ces pro­grammes entre des images de loups et de chiens re­po­sait en fait sur la pré­sence ou non de neige en ar­riè­re­fond. Est-on cer­tain de vou­loir lais­ser le diag­nos­tic de pa­tients ou la conduite d’une voi­ture à des pro­grammes dont on ignore com­ment ils prennent une dé­ci­sion? Ou si le big da­ta qu’ils traitent est biai­sé?

Le se­cond dom­mage col­la­té­ral de cette IA spec­tacle est qu’elle em­pêche les dé­ci­deurs d’ef­fec­tuer des choix éclai­rés. Eux aus­si sont vic­times de ces pièges à clics qui ont trans­for­mé un ar­ticle scien­ti­fique qui dé­cri­vait un bug en une ru­meur d’in­ven­tion de leur propre lan­gage par des IA de Fa­ce­book. A quoi s’ajoutent des fraudes. L’IA est si at­trac­tive que cer­taines star­tups n’hé­sitent pas à faire pas­ser pour des chat­bots des con­ver­sa­tions en réa­li­té me­nées par des hu­mains.

Certes, l’IA va aug­men­ter les ca­pa­ci­tés hu­maines (et vice ver­sa). Mais en gon­flant son po­ten­tiel d’au­to­ma­ti­sa­tion, ses zé­la­teurs nous prennent pour des im­bé­ciles qui ne voient pas que ces tech­no­lo­gies servent aus­si (sur­tout?) à nous cer­ner comme consom­ma­teurs.

Newspapers in French

Newspapers from Switzerland

© PressReader. All rights reserved.