IA à l’école, entre opportunités et risques, des défis importants
La politique ne peut pas se permettre les mêmes errances qu’avec les réseaux sociaux
Le débat sur l’utilisation de l’intelligence artificielle dans les salles de classe prend de l’ampleur. En France en décembre, Gabriel Attal, encore ministre de l’Education nationale, annonçait le déploiement cette année encore d’un logiciel d’apprentissage s’adaptant aux besoins de l’élève. Ce n’est pas qu’un effet d’annonce, l’IA révolutionne déjà de nombreux domaines et cette tendance devrait s’accélérer.
Dans l’éducation, les opportunités sont nombreuses: apprentissage sur mesure, soutien ciblé. Passé l’effet de mode, rien de fondamentalement nouveau. Les enseignantes et enseignants font déjà cela, évidemment dans la mesure des possibilités qui leur sont données par les structures scolaires. L’IA est donc un outil de plus à disposition, comme l’était la calculatrice ou les ordinateurs. L’éducation assistée par ordinateur – appelée pompeusement «EAO» – est d’ailleurs apparue dans les années 1980 et n’a jamais véritablement révolutionné l’enseignement: on y avait droit lorsqu’on avait terminé ses fiches. Dans la salle de cinquième de ma fille, aujourd’hui, ça n’a pas changé.
L’intelligence artificielle pose cependant des défis réels, en termes sociaux et sociétaux.
L’accès aux technologies a toujours été très inégalitaire et renforce l’écart entre ceux qui ont accès (techniquement et financièrement) et ceux qui n’ont pas cette chance. C’est le cas internationalement entre les pays, mais aussi en Suisse, entre les catégories socioéconomiques. Et cela malgré un taux de pénétration d’Internet parmi les plus élevé au monde (98,4% en janvier 2023). L’égalité des chances est au coeur de notre système de formation – ou devrait l’être: l’enseignement devrait idéalement se focaliser sur les élèves qui ont des difficultés, sans pénaliser ceux qui ont de la facilité. C’est plus simple en théorie qu’en pratique. Si l’IA devait intégrer les cursus scolaires, alors cet objectif devrait être central dans son développement. Le concept d’inclusion numérique prend ici tout son sens.
La question des biais et des discriminations – de genre, politiques, raciales, etc. – et du risque de désinformation devra aussi se poser. La politique ne peut pas se permettre les mêmes errances qu’avec les réseaux sociaux, où les modèles d’affaire ont créé des bulles informationnelles et amplifié les problèmes de désinformation. Mû par des modèles économiques similaires, l’IA pourrait bien prendre le même chemin, en pire, surtout en raison de notre incapacité à gérer les sources et le fonctionnement des grands modèles de langage. Dans les salles de classe, les enseignantes et enseignants appliquent le Consensus de Beutelsbach et observent une neutralité dans les débats de société, afin de favoriser l’éducation politique des jeunes et le dialogue. Un des principes de base est celui de controverse: «Ce qui est controversé dans le débat public ou scientifique, doit aussi l’être en classe». L’IA devra appliquer les mêmes principes. A ce sujet, il est intéressant de voir le développement dans d’autres pays. L’Arabie saoudite soumet les IA qu’elle développe pour ses élèves à des tests drastiques, histoire que les réponses ne leur donnent pas des idées… révolutionnaires. La transparence des modèles est ici centrale.
En réalité, l’éducation numérique doit développer l’esprit critique et la capacité à analyser les informations, quelles que soient d’ailleurs les sources dont elles proviennent. C’est l’objectif principal inscrit dans le Plan d’étude romand. Si l’enseignement se concentre sur l’apprentissage des outils de productivité, il aura totalement raté sa cible. Le dialogue entre les parents, les enseignantes et enseignants et la société – dont font partie les organes politiques – est essentiel. Il doit permettre de réguler l’intelligence artificielle pour qu’elle soutienne les fondements de notre éducation. Sans cela, passé l’effet de mode, elle rejoindra le fond de la classe.
■