Comment l’Europe veut réguler l’IA
Hier, les eurodéputés ont approuvé et même durci le projet de règlement visant à encadrer l’intelligence artificielle (IA). Les conséquences se feront sentir très rapidement en Suisse et dans le monde entier
Les événements se précipitent, s’enchaînant à quelques heures d’intervalle. Dans la nuit de mercredi à jeudi, Google présentait ses avancées en intelligence artificielle (IA), promettant la mise à disposition de son système Bard à la planète entière d’ici quelques semaines. Et à 9300 kilomètres de son siège de Mountain View (Californie), les eurodéputés se réunissaient hier matin à Strasbourg pour faire avancer la régulation de l’IA. Lors d’un vote en commission, les députés européens ont adopté un projet de mandat de négociation sur les premières règles au monde sur l’IA, par 84 voix pour, 7 contre et 12 abstentions. Ce vote est une étape importante d’un processus qui aura rapidement un impact mondial. En voici les points principaux.
Qu’est-ce qui a été décidé hier?
Non seulement une approbation, mais aussi un durcissement du premier texte proposé en avril 2021 par la Commission européenne. Concrètement, le règlement concernera aussi désormais les IA dites génératives, telle ChatGPT. Leurs concepteurs devront notamment empêcher la création de contenu illégal, de résumés de données protégées par le droit d’auteur et ne pas entraîner des algorithmes sur du contenu protégé. OpenAI, éditrice de ChatGPT, ainsi que ses concurrents, devra aussi évaluer et limiter les risques et s’enregistrer dans la base de données de l’UE.
De nouvelles interdictions ont été décidées concernant d’autres systèmes d’IA: pas de systèmes de reconnaissance des émotions ou encore pas de récupération de données biométriques provenant des médias sociaux ou de la vidéosurveillance pour créer des bases de données de reconnaissance faciale. Les domaines d’application sont donc très larges.
Quel est le cadre général?
L’UE a établi un cadre réglementaire définissant quatre niveaux de risque liés à l’IA: des risques inacceptables, élevés, limités et minimaux ou nuls. Par exemple, il sera interdit de créer «un classement de la fiabilité de personnes physiques […] en fonction de leur comportement social ou de caractéristiques personnelles ou de personnalité connues ou prédites». Donc pas de score social, comme c’est le cas en Chine, par exemple. En parallèle, sauf certaines exceptions, l’utilisation de systèmes d’identification biométrique à distance en temps réel sera prohibée.
Chaque fournisseur de systèmes d’IA jugés à risque devra se soumettre à des obligations strictes. Dans le cas des IA jugées à haut risque (application d’IA en chirurgie assistée par robot, logiciel de tri des CV pour les procédures de recrutement ou notation de crédit refusant aux citoyens la possibilité d’obtenir un prêt), la liste des tâches sera élevée: devoir de transparence, de documentation, d’analyse des risques, de réactivité élevée en cas de problème…
A noter que hier, les députés ont ajouté à la liste à haut risque les systèmes d’IA utilisés pour influencer les électeurs lors de campagnes politiques, ainsi que ceux des systèmes de recommandations utilisés par les plateformes de médias sociaux.
Citons parmi les risques limités, les chatbots, par exemple. Les utilisateurs devront en tout temps savoir s’ils interagissent avec une machine ou un humain. Enfin, parmi les risques minimaux ou nuls, il y a les jeux vidéo compatibles avec l’IA ou les filtres antispam.
Quelles seront les prochaines étapes?
Lundi, la vice-présidente de la Commission européenne Margrethe Vestager a affirmé: «J’espère vraiment que nous pourrons terminer cette année». Les étapes à venir sont encore nombreuses. Un projet de mandat de négociation doit être approuvé par le Parlement européen, a priori entre le 12 et le 15 juin. Ensuite démarreront des négociations avec les 27 Etats membres de l’UE qui devraient durer plusieurs mois. Une entrée en vigueur pourrait avoir lieu en 2024, mais ce n’est pas encore certain.
Comment réagissent les géants de la tech?
En apparence, tous appellent à des règlements encadrant leurs activités. «Absolument. Ces systèmes devraient être réglementés», affirmait récemment Mira Murati, responsable de la technologie chez OpenAI, dans une interview à l’agence AP. «Chez OpenAI, nous discutons constamment avec les gouvernements, les régulateurs et les autres organisations qui développent ces systèmes pour, au moins au niveau de l’entreprise, se mettre d’accord sur un certain niveau de normes», affirmait Mira Murati, poursuivant: «Mais je pense qu’il reste encore beaucoup à faire. Les régulateurs gouvernementaux devraient certainement être très impliqués.»
En toile de fond, les géants de la tech effectuent un lobbying important pour que leurs services, basés sur l’IA générative, soient régulés au minimum et ne soient pas considérés comme étant à risque. Comme le détaillait récemment Time, en été 2022, Google écrivait ceci à l’UE: «Les systèmes d’IA génératives sont neutres: ils sont polyvalents de par leur conception et ne sont pas eux-mêmes à haut risque car ces systèmes ne sont pas destinés à un usage spécifique. Toujours en 2022, Microsoft cosignait une lettre de plusieurs sociétés tech qui incluait cette phrase: «Il n’est pas nécessaire que le règlement sur l’IA contienne une section spécifique sur l’IA générative».
Que fait la Suisse?
Elle suit le mouvement, pour l’heure, sans créer sa propre régulation. En avril 2022, le Conseil fédéral présentait un cadre général visant à «renforcer les échanges entre experts juridiques et techniques» et à «assurer la cohérence des positions défendues par la Suisse au sein des instances internationales s’occupant d’IA».
Comme souvent, la Suisse ne fait que suivre les réglementations européennes. Mais début mai, une motion soutenue par 110 voix contre 79 au National demandait au Conseil fédéral d’être plus actif. Ce dernier s’est défendu en affirmant que des analyses sur les nouvelles réglementations de l’UE ont déjà eu lieu mais que l’ampleur de leur impact est actuellement difficile à estimer. Mais cela ne fait aucun doute: en général, ce qui est décidé par l’UE a des conséquences très concrètes pour les Suisses. Si Microsoft, Google ou OpenAI doivent adapter leurs services pour les citoyens de l’UE, ce sera aussi le cas pour les consommateurs helvétiques.
■
Les systèmes de reconnaissance des émotions font partie des nouvelles interdictions
«Les régulateurs gouvernementaux devraient certainement être très impliqués» MIRA MURATI, RESPONSABLE TECHNOLOGIE CHEZ OPENAI