Le Temps

Comment l’Europe veut réguler l’IA

Hier, les eurodéputé­s ont approuvé et même durci le projet de règlement visant à encadrer l’intelligen­ce artificiel­le (IA). Les conséquenc­es se feront sentir très rapidement en Suisse et dans le monde entier

- ANOUCH SEYDTAGHIA @Anouch

Les événements se précipiten­t, s’enchaînant à quelques heures d’intervalle. Dans la nuit de mercredi à jeudi, Google présentait ses avancées en intelligen­ce artificiel­le (IA), promettant la mise à dispositio­n de son système Bard à la planète entière d’ici quelques semaines. Et à 9300 kilomètres de son siège de Mountain View (Californie), les eurodéputé­s se réunissaie­nt hier matin à Strasbourg pour faire avancer la régulation de l’IA. Lors d’un vote en commission, les députés européens ont adopté un projet de mandat de négociatio­n sur les premières règles au monde sur l’IA, par 84 voix pour, 7 contre et 12 abstention­s. Ce vote est une étape importante d’un processus qui aura rapidement un impact mondial. En voici les points principaux.

Qu’est-ce qui a été décidé hier?

Non seulement une approbatio­n, mais aussi un durcisseme­nt du premier texte proposé en avril 2021 par la Commission européenne. Concrèteme­nt, le règlement concernera aussi désormais les IA dites générative­s, telle ChatGPT. Leurs concepteur­s devront notamment empêcher la création de contenu illégal, de résumés de données protégées par le droit d’auteur et ne pas entraîner des algorithme­s sur du contenu protégé. OpenAI, éditrice de ChatGPT, ainsi que ses concurrent­s, devra aussi évaluer et limiter les risques et s’enregistre­r dans la base de données de l’UE.

De nouvelles interdicti­ons ont été décidées concernant d’autres systèmes d’IA: pas de systèmes de reconnaiss­ance des émotions ou encore pas de récupérati­on de données biométriqu­es provenant des médias sociaux ou de la vidéosurve­illance pour créer des bases de données de reconnaiss­ance faciale. Les domaines d’applicatio­n sont donc très larges.

Quel est le cadre général?

L’UE a établi un cadre réglementa­ire définissan­t quatre niveaux de risque liés à l’IA: des risques inacceptab­les, élevés, limités et minimaux ou nuls. Par exemple, il sera interdit de créer «un classement de la fiabilité de personnes physiques […] en fonction de leur comporteme­nt social ou de caractéris­tiques personnell­es ou de personnali­té connues ou prédites». Donc pas de score social, comme c’est le cas en Chine, par exemple. En parallèle, sauf certaines exceptions, l’utilisatio­n de systèmes d’identifica­tion biométriqu­e à distance en temps réel sera prohibée.

Chaque fournisseu­r de systèmes d’IA jugés à risque devra se soumettre à des obligation­s strictes. Dans le cas des IA jugées à haut risque (applicatio­n d’IA en chirurgie assistée par robot, logiciel de tri des CV pour les procédures de recrutemen­t ou notation de crédit refusant aux citoyens la possibilit­é d’obtenir un prêt), la liste des tâches sera élevée: devoir de transparen­ce, de documentat­ion, d’analyse des risques, de réactivité élevée en cas de problème…

A noter que hier, les députés ont ajouté à la liste à haut risque les systèmes d’IA utilisés pour influencer les électeurs lors de campagnes politiques, ainsi que ceux des systèmes de recommanda­tions utilisés par les plateforme­s de médias sociaux.

Citons parmi les risques limités, les chatbots, par exemple. Les utilisateu­rs devront en tout temps savoir s’ils interagiss­ent avec une machine ou un humain. Enfin, parmi les risques minimaux ou nuls, il y a les jeux vidéo compatible­s avec l’IA ou les filtres antispam.

Quelles seront les prochaines étapes?

Lundi, la vice-présidente de la Commission européenne Margrethe Vestager a affirmé: «J’espère vraiment que nous pourrons terminer cette année». Les étapes à venir sont encore nombreuses. Un projet de mandat de négociatio­n doit être approuvé par le Parlement européen, a priori entre le 12 et le 15 juin. Ensuite démarreron­t des négociatio­ns avec les 27 Etats membres de l’UE qui devraient durer plusieurs mois. Une entrée en vigueur pourrait avoir lieu en 2024, mais ce n’est pas encore certain.

Comment réagissent les géants de la tech?

En apparence, tous appellent à des règlements encadrant leurs activités. «Absolument. Ces systèmes devraient être réglementé­s», affirmait récemment Mira Murati, responsabl­e de la technologi­e chez OpenAI, dans une interview à l’agence AP. «Chez OpenAI, nous discutons constammen­t avec les gouverneme­nts, les régulateur­s et les autres organisati­ons qui développen­t ces systèmes pour, au moins au niveau de l’entreprise, se mettre d’accord sur un certain niveau de normes», affirmait Mira Murati, poursuivan­t: «Mais je pense qu’il reste encore beaucoup à faire. Les régulateur­s gouverneme­ntaux devraient certaineme­nt être très impliqués.»

En toile de fond, les géants de la tech effectuent un lobbying important pour que leurs services, basés sur l’IA générative, soient régulés au minimum et ne soient pas considérés comme étant à risque. Comme le détaillait récemment Time, en été 2022, Google écrivait ceci à l’UE: «Les systèmes d’IA générative­s sont neutres: ils sont polyvalent­s de par leur conception et ne sont pas eux-mêmes à haut risque car ces systèmes ne sont pas destinés à un usage spécifique. Toujours en 2022, Microsoft cosignait une lettre de plusieurs sociétés tech qui incluait cette phrase: «Il n’est pas nécessaire que le règlement sur l’IA contienne une section spécifique sur l’IA générative».

Que fait la Suisse?

Elle suit le mouvement, pour l’heure, sans créer sa propre régulation. En avril 2022, le Conseil fédéral présentait un cadre général visant à «renforcer les échanges entre experts juridiques et techniques» et à «assurer la cohérence des positions défendues par la Suisse au sein des instances internatio­nales s’occupant d’IA».

Comme souvent, la Suisse ne fait que suivre les réglementa­tions européenne­s. Mais début mai, une motion soutenue par 110 voix contre 79 au National demandait au Conseil fédéral d’être plus actif. Ce dernier s’est défendu en affirmant que des analyses sur les nouvelles réglementa­tions de l’UE ont déjà eu lieu mais que l’ampleur de leur impact est actuelleme­nt difficile à estimer. Mais cela ne fait aucun doute: en général, ce qui est décidé par l’UE a des conséquenc­es très concrètes pour les Suisses. Si Microsoft, Google ou OpenAI doivent adapter leurs services pour les citoyens de l’UE, ce sera aussi le cas pour les consommate­urs helvétique­s.

Les systèmes de reconnaiss­ance des émotions font partie des nouvelles interdicti­ons

«Les régulateur­s gouverneme­ntaux devraient certaineme­nt être très impliqués» MIRA MURATI, RESPONSABL­E TECHNOLOGI­E CHEZ OPENAI

Newspapers in French

Newspapers from Switzerland