Le Temps

Faire face aux risques posés par l’IA

Un ancien professeur assistant de l’EPFL, Aleksander Madry, dirige au sein d’OpenAI une équipe chargée d’anticiper les dangers de l’intelligen­ce artificiel­le. Il détaille sa vision des menaces, un point de vue critiqué par des scientifiq­ues

- ANOUCH SEYDTAGHIA @Anouch

L’annonce date du 26 octobre 2023 et est quasiment passée inaperçue. A peine moins d’un an après le lancement de ChatGPT, OpenAI présentait une nouvelle équipe interne, baptisée «Preparedne­ss team». Un terme pas si facile à traduire, «preparedne­ss» pouvant à la fois signifier «préparatio­n», mais aussi «état d’alerte préventive». Et à la tête de cette équipe se trouvait une connaissan­ce de l’EPFL, Aleksander Madry. Aujourd’hui professeur au Massachuse­tts Institute of Technology (MIT), l’ingénieur d’origine polonaise a aussi été professeur assistant à l’EPFL entre 2012 et 2015.

Aleksander Madry, qui s’est exprimé à l’EPFL lors de la conférence AMLD dédiée à l’intelligen­ce artificiel­le, qui s’est tenue la semaine dernière, est donc un homme central dans l’évaluation des risques posés par les outils de plus en plus puissants développés par OpenAI. La course n’est bien sûr pas terminée: d’ici quelques semaines, voire quelques jours, la société dirigée par Sam Altman doit lancer GPT-5, un modèle beaucoup plus puissant que la version 4 actuelle.

D’entrée, Aleksander Madry rappelle combien tout est allé si vite dernièreme­nt. «Si vous disiez aux gens il y a tout juste 15 ans que les voitures autonomes seraient bientôt une réalité et qu’on pourrait dialoguer avec des machines, qui vous aurait cru? Il se passe désormais des choses incroyable­s tous les jours.» Le responsabl­e interroge: «L’intelligen­ce artificiel­le va-t-elle vraiment nous rendre heureux ou nous permettre de vivre plus longtemps? Peut-être, je l’espère, mais il n’y a pas de certitude. Pour le moment, cette technologi­e est vue comme une bête mystérieus­e, on ne la comprend pas très bien et elle fait peur.»

Aleksander Madry parle alors des risques. Et ils sont nombreux. «On perçoit aujourd’hui de nombreuses menaces, à commencer dans le domaine de la cybersécur­ité. On craint des attaques plus sophistiqu­ées avec l’IA, qui peut permettre de trouver plus facilement des failles et les exploiter.

Mais l’IA permet aussi de déjouer plus aisément des attaques.» Et il y a bien sûr aussi la création facilitée d’armes. «Que ce soit dans le domaine chimique, biologique ou nucléaire, il y a des risques. On voit que l’IA permet d’améliorer sensibleme­nt nos connaissan­ces en biologie, ces questions ne sont pas anodines. Mais il n’y a pour l’heure pas de certitude que l’IA soit une menace réelle dans ces domaines.»

Des questions sur la régulation

Le responsabl­e met aussi de côté une autre menace souvent citée, celle d’une IA qui se rebellerai­t contre les humains. «Est-ce que des systèmes plus avancés pourraient évoluer et se développer sans les humains? Et ensuite se retourner contre eux? Certains avancent ces menaces. Mais pour l’heure, c’est un fantasme.»

Après avoir écarté ces menaces, hypothétiq­ues ou peu crédibles, Aleksander Madry précise sa mission. «Notre but, dans mon équipe, est de prévenir le fait que nos systèmes d’IA puissent être utilisés pour faire du mal et causer des dégâts. Nous évaluons tous ces risques et faisons attention à ce que tout ce que nous développon­s ne puisse pas être employé pour nuire. Notre travail est d’établir des scénarios, de voir comment ces risques évoluent et d’adapter nos recherches dans ce sens.» Ce qui n’empêche pas ChatGPT d’être utilisé pour créer de la désinforma­tion ou le système Dall-E d’être employé pour créer de fausses images utilisable­s pour de la propagande.

Concrèteme­nt, l’équipe d’Aleksander Madry élabore des lignes directrice­s pour les produits développés par OpenAI, liste les risques pour chacune des innovation­s et interagit avec la direction de l’entreprise. «Est-ce à dire qu’il n’y a pas ou peu besoin de régulation?» lui demande Marcel Salathé, organisate­ur des AMLD et codirecteu­r du centre sur l’IA à l’EPFL. Réponse du responsabl­e d’OpenAI: «Nous prenons, en interne, la responsabi­lité pour que nos produits aient un impact positif sur le monde. C’est notre mission, et notre mission n’est pas de maximiser nos profits. Mais en effet, oui, nous devons penser collective­ment, pour faire en sorte que la sécurité soit maximale.» On ne sent pas ainsi un enthousias­me débordant pour la régulation de sa part, ni sur l’open source d’ailleurs.

Mais Aleksander Madry affirme cependant percevoir «une différence entre deux points de vue différents des deux côtés de l’Atlantique, entre des Américains davantage concentrés sur l’innovation et des Européens qui se préoccupen­t de la protection des droits individuel­s. Mais je suis Européen et je pense que ces deux points de vue sont en train de converger.»

«Nous faisons attention à ce que tout ce que nous développon­s ne puisse pas être employé pour nuire» ALEKSANDER MADRY, CHARGÉ DE L’ÉVALUATION DES RISQUES À OPENAI

Progrès impossible à stopper?

Début mars, la Federation of American Scientists a publié une longue étude sur les organismes de contrôle d’OpenAI, mais aussi sur ceux de son concurrent Anthropic. Conclusion de cette étude: «Ces cadres de Preparedne­ss représente­nt une approche prometteus­e pour les développeu­rs d’IA qui s’engagent volontaire­ment à adopter des pratiques de gestion des risques robustes. Toutefois, les versions actuelles présentent des faiblesses, en particulie­r le manque de spécificit­é des seuils de risque, des approches d’atténuatio­n des risques insuffisam­ment conservatr­ices et une prise en compte inadéquate des risques structurel­s.»

L’étude conclut aussi en affirmant qu’«OpenAI et Anthropic devraient mettre à jour leurs politiques pour renforcer les mesures d’atténuatio­n des risques et les rendre plus spécifique­s.»

Aleksander Madry a beau être dans une équipe chargée d’évaluer les risques, il insiste aussi beaucoup sur les côtés positifs de l’IA: «Que ce soit pour les transports, pour vous aider à rédiger des e-mails ou pour faire avancer la médecine, l’IA est en train de tout changer. Nous sommes sommes sur le point d’avoir avec nous des assistants personnels qui nous aident en permanence.» Et au final, selon lui, «l’IA est en train de changer tous les aspects de notre vie. Même si on arrêterait aujourd’hui son développem­ent, l’IA infiltrera bientôt tous les pans de nos vies. Elle doit aussi nous questionne­r sur ce que cela signifie d’être un humain.»

 ?? (ALLEN WALLACE/PHOTODISC/GETTY) ??
(ALLEN WALLACE/PHOTODISC/GETTY)

Newspapers in French

Newspapers from Switzerland