Depuis Davos, Sam Altman inquiète plus qu’il ne rassure
Le directeur général d’OpenAI a évoqué le futur de ChatGPT. L’outil devrait répondre de manière différenciée en fonction des valeurs des utilisateurs, ce qui pourrait mettre beaucoup de gens mal à l’aise, selon lui. De quoi soulever des interrogations
Ce sont des déclarations qui laissent une fois de plus une grande marge d’interprétation. Sam Altman, le turbulent patron d’OpenAI, à l’origine de ChatGPT, a indiqué mercredi à Davos au média Axios que l’intelligence artificielle (IA) allait évoluer vers davantage de personnalisation, ce qui «mettra beaucoup de gens mal à l’aise». Il s’attend à ce que son outil apporte des réponses différenciées en fonction des préférences, des valeurs et du pays de résidence des utilisateurs.
Selon lui, la prolifération de cette technologie nécessitera des décisions «inconfortables». Sam Altman a estimé que tout concepteur d’outil doit accepter des utilisations avec lesquelles il n’est pas à l’aise. Des propos qui restent assez mystérieux, ce d’autant plus qu’il a annoncé en parallèle se concentrer en priorité sur le lancement d’un nouveau modèle, dont le nom sera probablement GPT-5, «capable de faire beaucoup, beaucoup plus» que ses concurrents.
Faut-il s’attendre à ce que cette nouvelle itération de ChatGPT réponde différemment en fonction du pays de résidence des utilisateurs? «Je pense que la
«En tant que concepteurs d’outil, nous devons accepter de nous sentir quelque peu mal à l’aise face à certaines de leurs utilisations» SAM ALTMAN, PATRON D’OPENAI
question des pays est un peu moins importante», a rétorqué Sam Altman. D’après lui, les réponses seront surtout différentes en fonction des valeurs des individus.
Cette personnalisation a-t-elle pour but de faciliter les relations entre OpenAI et les régulateurs? L’enjeu de la réglementation de l’intelligence artificielle a pris de l’importance dans l’agenda politique. L’Union européenne s’est dotée de son propre cadre, et le Conseil de l’Europe, qui réunit 46 Etats membres dont la Suisse, devrait suivre.
De manière générale, devant la pression croissante des gouvernements, l’adaptation des services technologiques en fonction des zones géographiques s’est accélérée ces dernières années. Certaines applications mobiles ne sont par exemple pas disponibles selon les pays. Les résultats de recherche sur Google varient aussi en fonction de la géolocalisation. Ces différences sont souvent en lien avec les préférences des utilisateurs, mais elles sont parfois motivées par des aspects juridiques.
Cela vaut d’ailleurs des critiques aux entreprises qui cèdent devant les exigences de régimes autoritaires comme la Chine. Apple a par exemple été pointée du doigt pour avoir supprimé des dizaines de milliers d’applications sur son App Store pour les utilisateurs chinois, de façon à respecter la censure opérée par le gouvernement. Au point d’inciter certains géants à renoncer à leurs activités dans de tels pays, à l’image de Google, qui a quitté la Chine en 2010.
Plus récemment, Meta, la maison mère de Facebook et Instagram, a lancé un abonnement payant pour les utilisateurs européens, de manière à respecter la législation en matière de protection des données. Copilot, l’IA générative de Microsoft, n’est toujours pas disponible sur le système d’exploitation Windows 11 pour les appareils européens parce que l’entreprise américaine adapte son outil aux exigences locales.
La différenciation imposée par des motifs réglementaires n’a rien de nouveau. En revanche, par sa dimension interactive, l’IA générative peut engendrer des frustrations lorsqu’elle refuse de répondre à une question en invoquant ses limitations. Les utilisateurs de ChatGPT ont sans doute déjà reçu une réponse de cet acabit: «Je suis désolé, mais je ne peux pas vous aider avec cette demande. Il est important de respecter toutes les lois et réglementations en vigueur et de se comporter de manière éthique et responsable.»
L’écueil de la désinformation
Ces limites sont davantage visibles qu’avec d’autres services et créent de la friction dans l’utilisation. Par ailleurs, lorsque Sam Altman suggère une plus grande personnalisation liée aux valeurs des utilisateurs, cela soulève évidemment des interrogations. L’IA générative va-telle contribuer à renforcer la «bulle de filtres» que les réseaux sociaux sont accusés de favoriser en privilégiant des contenus qui correspondent uniquement aux opinions des utilisateurs?
Comment s’assurer qu’une telle personnalisation ne contribue pas à la diffusion d’informations partielles et partiales, au motif qu’elles correspondent aux préférences de tel groupe d’individus? Sam Altman devra rapidement approfondir ses déclarations. Le Forum économique de Davos, d’où il s’est exprimé, voit dans la lutte contre la désinformation un risque mondial majeur. Une fois de plus, le patron d’OpenAI inquiète plus qu’il ne rassure. ■