L’intelligence artificielle ou le danger de l’anthropomorphisme
Lexpression «intelligence artificielle» me fait penser au début des ordinateurs. On les appelait alors «cerveaux électroniques». C’était dans les années 50-60. On s’est aperçus avec le temps que ce n’étaient pas des cerveaux et on les a appelés ordinateurs, ce qui correspondait mieux à leur véritable usage et éliminait la connotation anthropomorphique. Aujourd’hui, il n’y a plus de confusion, les ordinateurs sont clairement distingués des êtres humains et, s’ils peuvent nous battre aux échecs, on sait que l’on doit garder un contrôle sur ces objets. Le danger de l’anthropomorphisme est là. Confondre une machine avec un être humain comporte un immense danger: celui que la population en vienne à croire que ces outils créés par l’homme sont au-dessus des humains et aptes à prendre les décisions à sa place.
Récemment, on apprenait qu’une puce créée il y a vingt ans comporte une faille de sécurité qui n’avait pas été détectée depuis 20 ans. Heureusement, on comprend qu’un ordinateur n’est pas un cerveau. Quelle serait la situation si, dans 20 ans, on découvrait un problème technique qui n’était pas visible au moment de la conception des algorithmes de «l’intelligence artificielle» et que, convaincus que l’IA est plus apte à prendre les bonnes décisions, nous lui avions cédé le contrôle de plusieurs décisions qui sont essentielles à nous comme êtres humains ?
Ce qu’on appelle IA n’est au fond qu’une imitation des facultés de l’intelligence humaine. Une caméra imite l’oeil et on peut lui donner une apparence semblable, mais elle n’est pas de même nature. C’est un objet qu’on ne confond pas avec un oeil.
Un algorithme est une reproduction de la démarche de ses concepteurs. Ce sont des personnes intelligentes et elles créent des algorithmes permettant de dupliquer à volonté le processus de pensée de ses concepteurs. S’il est correctement alimenté, il ne se trompera pas, mais il n’est pas l’intelligence des programmeurs. Si on peut automatiser un processus comptable, on peut aussi automatiser un processus de création d’un algorithme, qui peut modifier lui-même certains paramètres de son algorithme. C’est sans doute un exploit technologique, mais comme un ordinateur n’est pas un cerveau électronique, il n’y a pas là d’intelligence, sinon celle de ses concepteurs.
Danger de la confusion
Le danger naît de la confusion dans la population. Bien avant le danger de robots tueurs, le danger, c’est de céder les décisions à une machine parce que nous la croyons plus intelligente que nous. Vous me direz que ce ne sera jamais le cas!
Pourtant, un exemple démontre le contraire: les voitures autonomes sans conducteur. Selon ce qu’on en dit, il est inévitable que des accidents impossibles à éviter se produisent. Il faudra alors programmer la voiture pour qu’elle fasse les meilleurs choix. Qui devra-t-elle sacrifier? Lorsqu’elle fera le choix, ce ne sera pas selon son intelligence, mais en fonction du choix des concepteurs de l’algorithme, par une copie sauvegardée dans l’ordinateur. Penser que la machine est intelligente nous amène à un fatalisme qui élimine toute vision du choix à faire dans un tel cas.
Cet exemple, qui correspond à des choix limités pour la collectivité, peut se gérer de façon beaucoup plus simple que lorsqu’on parle de grandes décisions sociétales en économie, en politique et dans le domaine social. Déjà, dans le domaine des «Fintech» (de nouvelles technologies financières), je lisais que certains acteurs prévoyaient bâtir des algorithmes capables « d’objectiver » les décisions financières pour éviter que le «politique» n’influence les choix propres au système financier. Comme si le système financier s’objectivait. Déjà, cette vision est teintée d’un parti pris idéologique. Le céder à des ordinateurs, c’est consacrer un parti pris politique. Mais techniquement, développer un tel système est tout à fait possible. Si la population est convaincue que c’est un produit d’une intelligence supérieure à la sienne, cela équivaut à convaincre la population qu’il lui faut céder des pouvoirs démocratiques fondamentaux aux concepteurs de ces outils financiers.
À mon avis, l’expression intelligence artificielle représente une menace importante pour la démocratie, car elle peut amener la population à croire qu’elle est moins apte à faire les choix que ces équipements. Leur céder le pouvoir de décider, c’est le confier à leurs concepteurs. Retirer l’allusion anthropomorphique de la désignation de ces technologies pourrait nous protéger contre ce danger.