Feu vert pour une première loi sur l’IA dans l’Union européenne
Les Etats membres de l’UE ont approuvé vendredi une législation inédite au niveau mondial pour réguler l’intelligence artificielle après d’intenses négociations
Les ambassadeurs des 27 Etats membres de l’Union européenne (UE) ont «confirmé à l’unanimité» l’accord politique trouvé en décembre entre les Etats et les eurodéputés concernant l’encadrement de l’intelligence artificielle (IA), a annoncé vendredi la présidence belge du Conseil de l’UE.
La Commission européenne avait présenté son projet d’«Acte IA» en avril 2021. L’apparition fin 2022 de ChatGPT, de la start-up californienne OpenAI, capable de rédiger des dissertations, poèmes ou traductions en quelques secondes, lui a donné une nouvelle dimension et provoqué l’accélération des discussions.
Ce système, comme ceux capables de créer des sons ou des images, ont révélé au grand public le potentiel immense de l’IA. Mais aussi certains risques: la diffusion de fausses photographies, plus vraies que nature, a alerté sur le danger de manipulation de l’opinion.
Si des règles visant l’IA existent par exemple en Chine, le cadre juridique européen se distingue par son ampleur. Le commissaire européen Thierry Breton, chargé du dossier, a salué une réglementation «historique, une première mondiale». «La loi sur l’IA a déchaîné les passions, à juste titre! Aujourd’hui, les Etats ont approuvé l’accord politique de décembre, reconnaissant l’équilibre parfait trouvé par les négociateurs entre innovation et sécurité», a-t-il déclaré vendredi.
Paris et Berlin se sont montrés jusqu’au bout soucieux que la législation protège les start-up spécialisées dans l’intelligence artificielle, pour ne pas empêcher l’émergence de futurs «champions européens».
Des règles pour s’assurer de la qualité des données utilisées
Sur les IA génératives, des règles s’imposeront à tous pour s’assurer de la qualité des données utilisées dans la mise au point des algorithmes et vérifier qu’ils ne violent pas la législation sur les droits d’auteur. Les développeurs devront s’assurer que les sons, images et textes produits seront bien identifiés comme artificiels.
Les systèmes à «haut risque» – infrastructures critiques, éducation, ressources humaines ou le maintien de l’ordre – seront soumis à une série d’obligations comme celles de prévoir un contrôle humain sur la machine, l’établissement d’une documentation technique, ou encore la mise en place d’un système de gestion du risque.
La législation prévoit un encadrement particulier des systèmes d’IA interagissant avec les humains, avec une obligation d’information de l’utilisateur.
Le Parlement européen doit encore entériner définitivement au printemps le compromis final, qui ne peut plus être modifié. Certaines règles s’appliqueront six mois après l’adoption, deux ans plus tard pour d’autres dispositions. ■