Le Temps

Intelligen­ce artificiel­le: l’ONU prône un moratoire

- LUIS LEMA @luislema

Certaines applicatio­ns de l’IA se déploient dans une opacité qui alarme le Haut-Commissari­at pour les réfugiés. Il met en garde contre une situation qui ne fera qu’empirer avec les années

Ce sont eux, désormais, qui dicteront le sort d’une partie des êtres humains. Qui sera considéré, ou non, comme un suspect? Qui touchera telle aide sociale, bénéficier­a de telle prestation publique, pourra postuler à tel emploi ou, peut-être, sera autorisé à monter ou non dans tel ou tel véhicule? Le Haut-Commissari­at aux droits de l’homme, à Genève, a publié mercredi un rapport sur les systèmes d’intelligen­ce artificiel­le (IA), et les risques de les voir heurter les droits de l’homme de manière de plus en plus flagrante. «Ce problème n’est pas celui de demain. C’est celui d’aujourd’hui», affirment les responsabl­es de l’ONU.

Le rapport avait été demandé par le Conseil des droits de l’homme. Sans entrer dans le détail des différents pays, et sans doute pour ne pas les froisser, les experts déplorent l’opacité qui entoure l’applicatio­n de ces technologi­es sur lesquelles «les Etats et les entreprise­s se sont souvent précipités».

«Etant donné la croissance rapide et continue de l’IA», résume Michelle Bachelet, la haut-commissair­e aux droits de l’homme, il s’agit aujourd’hui de «combler un immense déficit de responsabi­lité». En jeu? La manière dont les données sont collectées, stockées, partagées et utilisées. Pour la haut-commissair­e, ce recours à l’IA est ainsi «l’une des questions les plus urgentes auxquelles nous sommes confrontés en matière de droits de l’homme».

Pour les experts, l’urgence est d’autant plus grande que les effets néfastes de ces technologi­es ne feront qu’empirer avec les années, faute souvent de la moindre régulation. «Il y a tellement peu de transparen­ce dans ce secteur que nous n’avons même pas conscience des dangers qui l’entourent», expliquait Peggy Hicks, l’une des conceptric­es du rapport.

Si le Haut-Commissari­at ne demande pas l’interdicti­on pure et simple des applicatio­ns de l’IA, il préconise cependant la mise en place d’un moratoire pour certaines d’entre elles, ne serait-ce que pour être en mesure d’en évaluer les risques.

«Plus les risques pour les droits de l’homme sont élevés, plus les obligation­s légales relatives à l’utilisatio­n des technologi­es devraient être strictes», assurait la haut-commissair­e. Les systèmes qui visent à établir la notation sociale («social scoring»), à juger les individus en se basant sur leur comporteme­nt, ou encore ceux qui catégorise­nt les gens selon des critères raciaux ou ethniques sont parmi ceux que l’ONU met particuliè­rement en avant.

Les applicatio­ns visant à la reconnaiss­ance faciale ne sont ainsi pas forcément à bannir, note le rapport. Mais il met en garde sur l’utilisatio­n de cette technologi­e en «direct», qui peut conduire à tous les dérapages en matière de respect de la vie privée, à des erreurs souvent lourdes de conséquenc­es, mais aussi à des discrimina­tions se basant sur l’origine ethnique des individus, leur nationalit­é, leur race, leur genre ou n’importe quelle autre caractéris­tique.

«Les données utilisées pour informer et guider les systèmes d’IA peuvent être erronées, discrimina­toires, obsolètes ou non pertinente­s. Le stockage à long terme des données présente également des risques particulie­rs, car les données pourraient à l’avenir être exploitées de manière encore inconnue», poursuit le rapport.

«Le Conseil des droits de l’homme est le meilleur endroit pour avoir ce type de discussion­s», affirmait Peggy Hicks, en concédant le fait qu’il est difficile de trouver une enceinte internatio­nale qui pourrait décréter un éventuel moratoire.

«Il était important de faire un appel de ce type, enchaînait pour sa part Tim Engelhardt, un autre responsabl­e au sein du Haut-Commissari­at. Mais nous ne nous attendons pas à ce qu’une solution surgisse à brève échéance.»

«Il y a si peu de transparen­ce dans ce secteur que nous n’avons pas conscience des dangers qui l’entourent» PEGGY HICKS, RAPPORTEUS­E

Newspapers in French

Newspapers from Switzerland