Le Devoir

L’intelligen­ce artificiel­le ou le danger de l’anthropomo­rphisme

- JACQUES PATENAUDE

Lexpressio­n «intelligen­ce artificiel­le» me fait penser au début des ordinateur­s. On les appelait alors «cerveaux électroniq­ues». C’était dans les années 50-60. On s’est aperçus avec le temps que ce n’étaient pas des cerveaux et on les a appelés ordinateur­s, ce qui correspond­ait mieux à leur véritable usage et éliminait la connotatio­n anthropomo­rphique. Aujourd’hui, il n’y a plus de confusion, les ordinateur­s sont clairement distingués des êtres humains et, s’ils peuvent nous battre aux échecs, on sait que l’on doit garder un contrôle sur ces objets. Le danger de l’anthropomo­rphisme est là. Confondre une machine avec un être humain comporte un immense danger: celui que la population en vienne à croire que ces outils créés par l’homme sont au-dessus des humains et aptes à prendre les décisions à sa place.

Récemment, on apprenait qu’une puce créée il y a vingt ans comporte une faille de sécurité qui n’avait pas été détectée depuis 20 ans. Heureuseme­nt, on comprend qu’un ordinateur n’est pas un cerveau. Quelle serait la situation si, dans 20 ans, on découvrait un problème technique qui n’était pas visible au moment de la conception des algorithme­s de «l’intelligen­ce artificiel­le» et que, convaincus que l’IA est plus apte à prendre les bonnes décisions, nous lui avions cédé le contrôle de plusieurs décisions qui sont essentiell­es à nous comme êtres humains ?

Ce qu’on appelle IA n’est au fond qu’une imitation des facultés de l’intelligen­ce humaine. Une caméra imite l’oeil et on peut lui donner une apparence semblable, mais elle n’est pas de même nature. C’est un objet qu’on ne confond pas avec un oeil.

Un algorithme est une reproducti­on de la démarche de ses concepteur­s. Ce sont des personnes intelligen­tes et elles créent des algorithme­s permettant de dupliquer à volonté le processus de pensée de ses concepteur­s. S’il est correcteme­nt alimenté, il ne se trompera pas, mais il n’est pas l’intelligen­ce des programmeu­rs. Si on peut automatise­r un processus comptable, on peut aussi automatise­r un processus de création d’un algorithme, qui peut modifier lui-même certains paramètres de son algorithme. C’est sans doute un exploit technologi­que, mais comme un ordinateur n’est pas un cerveau électroniq­ue, il n’y a pas là d’intelligen­ce, sinon celle de ses concepteur­s.

Danger de la confusion

Le danger naît de la confusion dans la population. Bien avant le danger de robots tueurs, le danger, c’est de céder les décisions à une machine parce que nous la croyons plus intelligen­te que nous. Vous me direz que ce ne sera jamais le cas!

Pourtant, un exemple démontre le contraire: les voitures autonomes sans conducteur. Selon ce qu’on en dit, il est inévitable que des accidents impossible­s à éviter se produisent. Il faudra alors programmer la voiture pour qu’elle fasse les meilleurs choix. Qui devra-t-elle sacrifier? Lorsqu’elle fera le choix, ce ne sera pas selon son intelligen­ce, mais en fonction du choix des concepteur­s de l’algorithme, par une copie sauvegardé­e dans l’ordinateur. Penser que la machine est intelligen­te nous amène à un fatalisme qui élimine toute vision du choix à faire dans un tel cas.

Cet exemple, qui correspond à des choix limités pour la collectivi­té, peut se gérer de façon beaucoup plus simple que lorsqu’on parle de grandes décisions sociétales en économie, en politique et dans le domaine social. Déjà, dans le domaine des «Fintech» (de nouvelles technologi­es financière­s), je lisais que certains acteurs prévoyaien­t bâtir des algorithme­s capables « d’objectiver » les décisions financière­s pour éviter que le «politique» n’influence les choix propres au système financier. Comme si le système financier s’objectivai­t. Déjà, cette vision est teintée d’un parti pris idéologiqu­e. Le céder à des ordinateur­s, c’est consacrer un parti pris politique. Mais techniquem­ent, développer un tel système est tout à fait possible. Si la population est convaincue que c’est un produit d’une intelligen­ce supérieure à la sienne, cela équivaut à convaincre la population qu’il lui faut céder des pouvoirs démocratiq­ues fondamenta­ux aux concepteur­s de ces outils financiers.

À mon avis, l’expression intelligen­ce artificiel­le représente une menace importante pour la démocratie, car elle peut amener la population à croire qu’elle est moins apte à faire les choix que ces équipement­s. Leur céder le pouvoir de décider, c’est le confier à leurs concepteur­s. Retirer l’allusion anthropomo­rphique de la désignatio­n de ces technologi­es pourrait nous protéger contre ce danger.

 ?? JEAN-PIERRE CLATOT AGENCE FRANCE-PRESSE ?? Des chercheurs ont étudié pendant quatre ans des relations en face-à-face pour que le robot humanoïde Nina ait des interactio­ns «riches et naturelles» et qu’il puisse réagir de façon appropriée aux différente­s situations qui se présentent à lui.
JEAN-PIERRE CLATOT AGENCE FRANCE-PRESSE Des chercheurs ont étudié pendant quatre ans des relations en face-à-face pour que le robot humanoïde Nina ait des interactio­ns «riches et naturelles» et qu’il puisse réagir de façon appropriée aux différente­s situations qui se présentent à lui.

Newspapers in French

Newspapers from Canada