Faire face aux risques posés par l’IA
Un ancien professeur assistant de l’EPFL, Aleksander Madry, dirige au sein d’OpenAI une équipe chargée d’anticiper les dangers de l’intelligence artificielle. Il détaille sa vision des menaces, un point de vue critiqué par des scientifiques
L’annonce date du 26 octobre 2023 et est quasiment passée inaperçue. A peine moins d’un an après le lancement de ChatGPT, OpenAI présentait une nouvelle équipe interne, baptisée «Preparedness team». Un terme pas si facile à traduire, «preparedness» pouvant à la fois signifier «préparation», mais aussi «état d’alerte préventive». Et à la tête de cette équipe se trouvait une connaissance de l’EPFL, Aleksander Madry. Aujourd’hui professeur au Massachusetts Institute of Technology (MIT), l’ingénieur d’origine polonaise a aussi été professeur assistant à l’EPFL entre 2012 et 2015.
Aleksander Madry, qui s’est exprimé à l’EPFL lors de la conférence AMLD dédiée à l’intelligence artificielle, qui s’est tenue la semaine dernière, est donc un homme central dans l’évaluation des risques posés par les outils de plus en plus puissants développés par OpenAI. La course n’est bien sûr pas terminée: d’ici quelques semaines, voire quelques jours, la société dirigée par Sam Altman doit lancer GPT-5, un modèle beaucoup plus puissant que la version 4 actuelle.
D’entrée, Aleksander Madry rappelle combien tout est allé si vite dernièrement. «Si vous disiez aux gens il y a tout juste 15 ans que les voitures autonomes seraient bientôt une réalité et qu’on pourrait dialoguer avec des machines, qui vous aurait cru? Il se passe désormais des choses incroyables tous les jours.» Le responsable interroge: «L’intelligence artificielle va-t-elle vraiment nous rendre heureux ou nous permettre de vivre plus longtemps? Peut-être, je l’espère, mais il n’y a pas de certitude. Pour le moment, cette technologie est vue comme une bête mystérieuse, on ne la comprend pas très bien et elle fait peur.»
Aleksander Madry parle alors des risques. Et ils sont nombreux. «On perçoit aujourd’hui de nombreuses menaces, à commencer dans le domaine de la cybersécurité. On craint des attaques plus sophistiquées avec l’IA, qui peut permettre de trouver plus facilement des failles et les exploiter.
Mais l’IA permet aussi de déjouer plus aisément des attaques.» Et il y a bien sûr aussi la création facilitée d’armes. «Que ce soit dans le domaine chimique, biologique ou nucléaire, il y a des risques. On voit que l’IA permet d’améliorer sensiblement nos connaissances en biologie, ces questions ne sont pas anodines. Mais il n’y a pour l’heure pas de certitude que l’IA soit une menace réelle dans ces domaines.»
Des questions sur la régulation
Le responsable met aussi de côté une autre menace souvent citée, celle d’une IA qui se rebellerait contre les humains. «Est-ce que des systèmes plus avancés pourraient évoluer et se développer sans les humains? Et ensuite se retourner contre eux? Certains avancent ces menaces. Mais pour l’heure, c’est un fantasme.»
Après avoir écarté ces menaces, hypothétiques ou peu crédibles, Aleksander Madry précise sa mission. «Notre but, dans mon équipe, est de prévenir le fait que nos systèmes d’IA puissent être utilisés pour faire du mal et causer des dégâts. Nous évaluons tous ces risques et faisons attention à ce que tout ce que nous développons ne puisse pas être employé pour nuire. Notre travail est d’établir des scénarios, de voir comment ces risques évoluent et d’adapter nos recherches dans ce sens.» Ce qui n’empêche pas ChatGPT d’être utilisé pour créer de la désinformation ou le système Dall-E d’être employé pour créer de fausses images utilisables pour de la propagande.
Concrètement, l’équipe d’Aleksander Madry élabore des lignes directrices pour les produits développés par OpenAI, liste les risques pour chacune des innovations et interagit avec la direction de l’entreprise. «Est-ce à dire qu’il n’y a pas ou peu besoin de régulation?» lui demande Marcel Salathé, organisateur des AMLD et codirecteur du centre sur l’IA à l’EPFL. Réponse du responsable d’OpenAI: «Nous prenons, en interne, la responsabilité pour que nos produits aient un impact positif sur le monde. C’est notre mission, et notre mission n’est pas de maximiser nos profits. Mais en effet, oui, nous devons penser collectivement, pour faire en sorte que la sécurité soit maximale.» On ne sent pas ainsi un enthousiasme débordant pour la régulation de sa part, ni sur l’open source d’ailleurs.
Mais Aleksander Madry affirme cependant percevoir «une différence entre deux points de vue différents des deux côtés de l’Atlantique, entre des Américains davantage concentrés sur l’innovation et des Européens qui se préoccupent de la protection des droits individuels. Mais je suis Européen et je pense que ces deux points de vue sont en train de converger.»
«Nous faisons attention à ce que tout ce que nous développons ne puisse pas être employé pour nuire» ALEKSANDER MADRY, CHARGÉ DE L’ÉVALUATION DES RISQUES À OPENAI
Progrès impossible à stopper?
Début mars, la Federation of American Scientists a publié une longue étude sur les organismes de contrôle d’OpenAI, mais aussi sur ceux de son concurrent Anthropic. Conclusion de cette étude: «Ces cadres de Preparedness représentent une approche prometteuse pour les développeurs d’IA qui s’engagent volontairement à adopter des pratiques de gestion des risques robustes. Toutefois, les versions actuelles présentent des faiblesses, en particulier le manque de spécificité des seuils de risque, des approches d’atténuation des risques insuffisamment conservatrices et une prise en compte inadéquate des risques structurels.»
L’étude conclut aussi en affirmant qu’«OpenAI et Anthropic devraient mettre à jour leurs politiques pour renforcer les mesures d’atténuation des risques et les rendre plus spécifiques.»
Aleksander Madry a beau être dans une équipe chargée d’évaluer les risques, il insiste aussi beaucoup sur les côtés positifs de l’IA: «Que ce soit pour les transports, pour vous aider à rédiger des e-mails ou pour faire avancer la médecine, l’IA est en train de tout changer. Nous sommes sommes sur le point d’avoir avec nous des assistants personnels qui nous aident en permanence.» Et au final, selon lui, «l’IA est en train de changer tous les aspects de notre vie. Même si on arrêterait aujourd’hui son développement, l’IA infiltrera bientôt tous les pans de nos vies. Elle doit aussi nous questionner sur ce que cela signifie d’être un humain.»
■