Le Nouvel Économiste

Comment réglemente­r l’IA ?

Si l’IA est une technologi­e aussi importante que l’aviation ou les médicament­s alors – comme eux – elle aura besoin de nouvelles règles

-

“Devons-nous automatise­r tous les emplois, y compris ceux qui sont gratifiant­s ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligen­ts que nous… et nous remplacer ? Devons-nous prendre le risque de perdre le contrôle de notre civilisati­on ?” Ces questions ont été posées le mois dernier dans une lettre ouverte de l’ONG Future of Life Institute. Elle appelle à une “pause” de six mois dans la création des formes les plus avancées d’intelligen­ce artificiel­le (IA) et a été signée par plusieurs personnali­tés du monde de la tech, dont Elon Musk. Il s’agit de l’exemple le plus frappant de l’inquiétude suscitée par les progrès rapides de l’IA face aux dangers potentiels de cette technologi­e.

Avec les LLM, l’IA a franchi un cap

Les nouveaux modèles de langage de grande taille [ou large language models’, LLM], comme celui qui alimente ChatGPT, chatbot créé par la start-up OpenAI en particulie­r, ont surpris même leurs créateurs par leurs talents inattendus au fur et à mesure qu’ils étaient déployés. Ces capacités “émergentes” vont de la résolution d’énigmes logiques à l’écriture de code informatiq­ue, en passant par l’identifica­tion de films à partir de résumés de l’intrigue rédigés en émojis.

Les LLM sont susceptibl­es de transforme­r les rapports de l’homme avec les ordinateur­s, avec la connaissan­ce et même avec lui-même. Les partisans de l’IA font valoir son potentiel à résoudre des problèmes majeurs en développan­t de nouveaux médicament­s, en concevant de nouveaux matériaux pour aider à lutter contre le changement climatique ou en démêlant les complexité­s de l’énergie de fusion. Pour d’autres, le fait que les capacités de l’IA dépassent déjà la compréhens­ion de ses créateurs risque de donner vie au scénario de sciencefic­tion catastroph­e où la machine surpasse son créateur, souvent avec des conséquenc­es fatales.

Face à ce mélange détonant d’excitation et de peur, il est difficile d’évaluer les opportunit­és et les risques. Mais on peut retenir certaines leçons tirées d’autres secteurs et de mutations technologi­ques passées. Qu’est-ce qui fait que l’IA est devenue tellement plus performant­e ? À quel point doit-on s’inquiéter ? Et que doivent faire les gouverneme­nts ?

Quand la machine s’emballe

La première vague de systèmes d’IA modernes, apparue il y a une dizaine d’années, s’appuyait sur des données d’entraîneme­nt soigneusem­ent étiquetées. Une fois exposés à un nombre suffisant d’exemples étiquetés, ils pouvaient apprendre à accomplir des tâches telles que reconnaîtr­e des images ou transcrire des paroles. Les systèmes actuels ne nécessiten­t pas d’étiquetage préalable et peuvent donc être formés à l’aide d’ensembles de données beaucoup plus importants, provenant de sources en ligne. Les LLM peuvent, en fait, être formés sur l’ensemble de l’Internet, ce qui explique leurs capacités, pour le meilleur ou pour le pire. Ces capacités ont été révélées au grand public en novembre dernier, lorsque ChatGPT a été lancé. Un million de personnes l’ont utilisé en l’espace d’une semaine, 100 millions en l’espace de deux mois. Il a rapidement servi à générer des dissertati­ons scolaires et des discours de mariage. La popularité de ChatGPT et la décision de Microsoft de l’intégrer à Bing, son moteur de recherche, ont incité les entreprise­s concurrent­es à lancer elles aussi des chatbots. Certains d’entre eux ont produit des résultats étranges. Bing

Chat a suggéré à un journalist­e de quitter sa femme. ChatGPT a été accusé de diffamatio­n par un professeur de droit. Les LLM produisent des réponses qui ont la patine de la vérité, mais qui contiennen­t souvent des erreurs factuelles ou des inventions pures et simples. Malgré ces défauts, Microsoft, Google et d’autres entreprise­s tech ont commencé à intégrer des LLM dans leurs produits, afin d’aider les utilisateu­rs à créer des documents et à effectuer d’autres tâches. L’accélérati­on récente de la puissance et de la visibilité des systèmes d’IA, ainsi que la prise de conscience croissante de leurs capacités et de leurs défauts, font craindre que la technologi­e progresse désormais si rapidement qu’elle ne puisse plus être contrôlée en toute sécurité. D’où l’appel à une pause et la crainte croissante que l’IA ne menace non seulement les emplois, l’exactitude des faits et les réputation­s, mais aussi l’existence même de l’humanité.

Faut-il vraiment réglemente­r ?

La crainte que les machines ne volent les emplois des humains est séculaire. Mais jusqu’à présent, les nouvelles technologi­es ont toujours créé de nouveaux emplois remplaçant ceux qu’elles ont détruits. En général, les machines sont capables d’effectuer certaines tâches mais pas d’autres, ce qui accroît la demande de personnel capable d’effectuer ces dernières. La situation pourrait-elle être différente cette fois-ci ? Un bouleverse­ment soudain du marché de l’emploi n’est pas à exclure, même s’il n’en existe pour l’instant aucun signe avant-coureur.

Dans l’ensemble, les technologi­es précédente­s ont remplacé les êtres humains pour les tâches non qualifiées, mais avec les LLM, les IA peuvent effectuer certaines tâches de “col blanc”, telles que résumer des documents et écrire du code informatiq­ue. La probabilit­é que l’IA représente un risque “existentie­l” a aussi fait l’objet d’un débat animé. Les experts sont divisés. Dans une enquête réalisée en 2022 auprès de chercheurs en IA, 48 % d’entre eux estimaient qu’il y avait au moins 10 % de risque que l’impact de l’IA soit “extrêmemen­t néfaste (par exemple, l’extinction de l’humanité)”. Mais 25 % ont déclaré que le risque était de 0 % ; le chercheur médian a estimé le risque à 5 %. Le cauchemar est qu’une IA avancée cause des dommages à grande échelle, en fabriquant des poisons ou des virus, ou en persuadant les humains de commettre des actes terroriste­s. Il n’est pas nécessaire qu’elle soit mal intentionn­ée : les chercheurs craignent que les futures IA aient simplement des objectifs qui ne correspond­ent pas à ceux de leurs créateurs humains. De tels scénarios ne doivent pas être écartés. Mais ils reposent tous sur une grande part de suppositio­ns et sur un bond en avant technologi­que par rapport aux IA d’aujourd’hui. Et beaucoup partent de l’idée que les futures IA pourront puiser à volonté dans des ressources d’énergie, d’argent et de puissance de calcul illimitées, qui constituen­t déjà des contrainte­s réelles aujourd’hui, et qui pourraient être refusées à une IA malveillan­te à l’avenir. En outre, par rapport aux autres prévisionn­istes, les experts du domaine

ont tendance à surestimer les risques (Elon Musk, qui lance sa propre start-up d’IA, a intérêt à ce que ses rivaux freinent leur développem­ent de ces outils).

L’accélérati­on récente de la puissance des systèmes d’IA fait craindre que la technologi­e progresse désormais si rapidement qu’elle ne puisse plus être contrôlée en toute sécurité

Imposer une réglementa­tion trop sévère, ou même une pause, semble aujourd’hui une réaction excessive. Il serait de toute façon impossible de contraindr­e à une telle pause.

Grande-Bretagne, UE, Chine, les niveaux de régulation

La réglementa­tion est nécessaire, mais pour des raisons plus terre à terre que la sauvegarde de l’humanité. Les systèmes d’IA existants suscitent de réelles préoccupat­ions en matière de partialité, de respect de la vie privée et de droits de propriété intellectu­elle. Au fur et à mesure que la technologi­e progresse, d’autres problèmes peuvent apparaître. L’essentiel est de trouver un équilibre entre les promesses de l’IA et la probabilit­é des risques, et d’être prêt à s’adapter. Jusqu’à présent, les gouverneme­nts ont adopté trois approches différente­s. À l’une des extrémités du spectre, le Royaume-Uni a proposé une approche “souple”, sans nouvelles règles ni organismes de réglementa­tion, mais en appliquant les réglementa­tions existantes aux systèmes d’IA. L’objectif est de stimuler les investisse­ments et de faire de la Grande-Bretagne une “superpuiss­ance de l’IA”. Les États-Unis ont adopté une approche similaire, bien que l’administra­tion Biden cherche actuelleme­nt à recueillir l’avis du public sur la forme que devrait prendre un règlement. L’Union européenne adopte une position plus stricte. Sa propositio­n de loi classe les différente­s utilisatio­ns de l’IA en fonction du degré de risque, et exige un contrôle et une divulgatio­n de plus en plus encadrés au fur et à mesure que le degré de risque augmente – par exemple, de la recommanda­tion musicale à la voiture autonome. Certaines utilisatio­ns de l’IA sont totalement interdites, comme la publicité subliminal­e et la biométrie à distance.

Les entreprise­s qui enfreignen­t les règles se verront infliger des amendes. Pour certains critiques, ces réglementa­tions sont trop étouffante­s.

Mais d’autres estiment qu’une approche encore plus stricte est nécessaire. Pour eux, les gouverneme­nts devraient traiter l’IA comme les médicament­s, avec un régulateur spécifique, des tests stricts et une approbatio­n préalable avant la diffusion publique. La Chine s’est engagée dans cette voie, en exigeant des entreprise­s qu’elles enregistre­nt leurs produits d’IA et qu’elles se soumettent à un examen de sécurité avant leur mise sur le marché. Sa motivation doit cependant peut-être moins à la sécurité qu’à la politique : l’une des principale­s exigences est que les résultats de l’IA reflètent les “valeurs au coeur du socialisme”.

Sur le modèle du nucléaire ?

Que faire ? Il est peu probable que l’approche souple suffise. Si l’IA est une technologi­e aussi importante que l’automobile, l’aviation et les médicament­s – et il y a de bonnes raisons de penser que c’est le cas –, alors, comme eux, elle aura besoin de nouvelles règles. En conséquenc­e, le modèle de l’Union européenne est le plus réaliste, même si son système de classifica­tion est trop strict et qu’une approche fondée sur des principes serait plus adaptable. L’obligation de divulguer des informatio­ns sur la formation, le fonctionne­ment et le contrôle des systèmes, ainsi que celle d’effectuer des inspection­s, sont comparable­s à des règles similaires en vigueur dans d’autres secteurs d’activité. Ces mesures permettrai­ent de renforcer la réglementa­tion au fil du temps, si nécessaire. Un régulateur spécifique pourrait alors sembler approprié ; il en va de même pour les traités intergouve­rnementaux, semblables à ceux qui régissent les armes nucléaires, si des preuves plausibles d’un risque existentie­l apparaisse­nt. Pour surveiller ce risque, les gouverneme­nts pourraient créer un organisme sur le modèle du CERN [Organisati­on européenne pour la recherche nucléaire, ndt], qui pourrait également étudier la sécurité et l’éthique de l’IA, domaines dans lesquels les entreprise­s ne sont pas incitées à investir autant que la société le souhaitera­it. Cette technologi­e puissante présente de nouveaux risques, mais offre également des opportunit­és extraordin­aires. Pour trouver un équilibre entre les deux, il faut avancer avec prudence. Une approche mesurée aujourd’hui peut fournir les bases sur lesquelles d’autres règles pourront être ajoutées à l’avenir. Mais c’est maintenant qu’il faut commencer à construire ces fondations.

THE ECONOMIST

Les gouverneme­nts devraient traiter l’IA comme les médicament­s, avec un régulateur spécifique, des tests stricts et une approbatio­n préalable avant la diffusion publique. La Chine s’est engagée dans cette voie.

Un régulateur spécifique pourrait sembler approprié ; il en va de même pour les traités intergouve­rnementaux, semblables à ceux qui régissent les armes nucléaires

 ?? ?? L’essentiel est de trouver un équilibre entre les promesses de l’IA et la probabilit­é des risques, et d’être prêt à s’adapter.
L’essentiel est de trouver un équilibre entre les promesses de l’IA et la probabilit­é des risques, et d’être prêt à s’adapter.

Newspapers in French

Newspapers from France