Intelligence artificielle: l’ONU prône un moratoire
Certaines applications de l’IA se déploient dans une opacité qui alarme le Haut-Commissariat pour les réfugiés. Il met en garde contre une situation qui ne fera qu’empirer avec les années
Ce sont eux, désormais, qui dicteront le sort d’une partie des êtres humains. Qui sera considéré, ou non, comme un suspect? Qui touchera telle aide sociale, bénéficiera de telle prestation publique, pourra postuler à tel emploi ou, peut-être, sera autorisé à monter ou non dans tel ou tel véhicule? Le Haut-Commissariat aux droits de l’homme, à Genève, a publié mercredi un rapport sur les systèmes d’intelligence artificielle (IA), et les risques de les voir heurter les droits de l’homme de manière de plus en plus flagrante. «Ce problème n’est pas celui de demain. C’est celui d’aujourd’hui», affirment les responsables de l’ONU.
Le rapport avait été demandé par le Conseil des droits de l’homme. Sans entrer dans le détail des différents pays, et sans doute pour ne pas les froisser, les experts déplorent l’opacité qui entoure l’application de ces technologies sur lesquelles «les Etats et les entreprises se sont souvent précipités».
«Etant donné la croissance rapide et continue de l’IA», résume Michelle Bachelet, la haut-commissaire aux droits de l’homme, il s’agit aujourd’hui de «combler un immense déficit de responsabilité». En jeu? La manière dont les données sont collectées, stockées, partagées et utilisées. Pour la haut-commissaire, ce recours à l’IA est ainsi «l’une des questions les plus urgentes auxquelles nous sommes confrontés en matière de droits de l’homme».
Pour les experts, l’urgence est d’autant plus grande que les effets néfastes de ces technologies ne feront qu’empirer avec les années, faute souvent de la moindre régulation. «Il y a tellement peu de transparence dans ce secteur que nous n’avons même pas conscience des dangers qui l’entourent», expliquait Peggy Hicks, l’une des conceptrices du rapport.
Si le Haut-Commissariat ne demande pas l’interdiction pure et simple des applications de l’IA, il préconise cependant la mise en place d’un moratoire pour certaines d’entre elles, ne serait-ce que pour être en mesure d’en évaluer les risques.
«Plus les risques pour les droits de l’homme sont élevés, plus les obligations légales relatives à l’utilisation des technologies devraient être strictes», assurait la haut-commissaire. Les systèmes qui visent à établir la notation sociale («social scoring»), à juger les individus en se basant sur leur comportement, ou encore ceux qui catégorisent les gens selon des critères raciaux ou ethniques sont parmi ceux que l’ONU met particulièrement en avant.
Les applications visant à la reconnaissance faciale ne sont ainsi pas forcément à bannir, note le rapport. Mais il met en garde sur l’utilisation de cette technologie en «direct», qui peut conduire à tous les dérapages en matière de respect de la vie privée, à des erreurs souvent lourdes de conséquences, mais aussi à des discriminations se basant sur l’origine ethnique des individus, leur nationalité, leur race, leur genre ou n’importe quelle autre caractéristique.
«Les données utilisées pour informer et guider les systèmes d’IA peuvent être erronées, discriminatoires, obsolètes ou non pertinentes. Le stockage à long terme des données présente également des risques particuliers, car les données pourraient à l’avenir être exploitées de manière encore inconnue», poursuit le rapport.
«Le Conseil des droits de l’homme est le meilleur endroit pour avoir ce type de discussions», affirmait Peggy Hicks, en concédant le fait qu’il est difficile de trouver une enceinte internationale qui pourrait décréter un éventuel moratoire.
«Il était important de faire un appel de ce type, enchaînait pour sa part Tim Engelhardt, un autre responsable au sein du Haut-Commissariat. Mais nous ne nous attendons pas à ce qu’une solution surgisse à brève échéance.»
■
«Il y a si peu de transparence dans ce secteur que nous n’avons pas conscience des dangers qui l’entourent» PEGGY HICKS, RAPPORTEUSE