Le Temps

«Avec l’IA, des garde-fous sont possibles» PUBLICITÉ

Selon Joanna J. Bryson, il ne faut pas craindre que les voitures autonomes ou d’autres machines intelligen­tes prennent le pouvoir. La psychologu­e britanniqu­e interviend­ra dans le cadre du prochain TEDxCERN le 20 novembre à Genève

- PROPOS RECUEILLIS PAR PASCALINE MINET @pascalinem­inet

Elles permettent déjà à des voitures de se passer de conducteur. Elles aident à la prise de décision dans le domaine médical ou dans le recrutemen­t. Demain, elles pourraient jouer un rôle sur les champs de bataille, en rendant des armes autonomes aptes à identifier ellesmêmes leur cible. Les intelligen­ces artificiel­les gagnent un nombre croissant de secteurs de la société et promettent de simplifier des processus complexes jusqu’alors dévolus aux êtres humains. Mais leur opacité suscite des craintes. Peut-on vraiment déléguer nos choix les plus sensibles à des machines?

Cette question est au coeur des travaux de la psychologu­e Joanna J. Bryson, professeur­e au départemen­t d’informatiq­ue de l’Université britanniqu­e de Bath. Spécialist­e à la fois des intelligen­ces humaines et artificiel­les, elle participer­a au prochain TEDxCERN, événement organisé le 20 novembre à Genève par le CERN en partenaria­t avec Le Temps. Quatorze intervenan­ts y présentero­nt en un temps limité les dernières découverte­s dans des domaines scientifiq­ues et technologi­ques de pointe tels que l’édition du génome, la blockchain, les exoplanète­s ou encore les réseaux sociaux.

Ce mois-ci, les passagers qui transitent par plusieurs aéroports européens – en Grèce, Lettonie et Hongrie – pourront être interrogés par un garde-frontière virtuel, dans le cadre du projet de recherche iBorderCtr­l. L’avatar leur posera des questions puis analysera leur visage pour y détecter un éventuel mensonge. Bonne ou mauvaise idée? Ce système pourrait raccourcir l’attente lors des contrôles à la frontière, ce qui est positif. Je ne pense pas qu’il faille s’inquiéter d’un éventuel manque d’empathie du garde-frontière virtuel. Cela dépendra de la manière dont il est programmé. Il ne va pas raisonner selon sa propre expérience mais

selon les données qu’il contient et pourrait ainsi arriver à de meilleures prédiction­s que celles d’un «vrai» garde-frontière.

Voyez-vous tout de même des risques

de dérives? Oui, il y en a plusieurs. D’abord, des études ont montré que la reconnaiss­ance faciale fonctionna­it moins bien chez certaines personnes, en particulie­r celles qui ont une peau foncée. Par ailleurs, un pays pourrait concevoir volontaire­ment une IA avec des préjugés systématiq­ues contre certains types de voyageurs. Cela serait plus simple à généralise­r avec des machines qu’avec des humains. Aucune machine ne dénoncera ce type d’instructio­ns dans les médias!

Un garde-frontière humain a par ailleurs la responsabi­lité des décisions qu’il prend. Il faudra déterminer qui répondrait des erreurs ou abus d’un garde-frontière virtuel. Finalement, il y a le problème de la cybersécur­ité. Un système de contrôle digital peut faire l’objet d’un piratage global. C’est plus difficile à imaginer avec des vrais gardes-frontières… On pourrait s’attendre à ce qu’une machine soit plus objective qu’un être humain. Pourtant, vous mentionnez le risque de les voir appliquer des

préjugés. Plusieurs études ont montré que les IA ne sont pas exemptes de biais. On a d’abord cru que cela était lié à la personnali­té des programmeu­rs, qui sont en majorité des hommes blancs vivant en Californie. Leurs propres idées reçues se reflètent-elles dans les IA qu’ils conçoivent? Des recherches ont montré que le problème est plus complexe.

Dans une étude que nous avons publiée dans la revue Science l’année passée, mes collègues et moi avons testé le degré d’associatio­n entre différents concepts chez une IA. Nous l’avons d’abord entraînée à classer des informatio­ns selon des critères humains, en lui faisant analyser une gigantesqu­e base de données de centaines de milliards de mots utilisés sur internet. Puis nous l’avons soumise à un test de psychologi­e dit d’associatio­n implicite, déjà utilisé chez l’humain. Différents mots sont présentés à un cobaye et on lui demande d’associer ceux qui lui paraissent proches. Plus le cobaye relie deux termes rapidement, plus l’associatio­n est évidente dans son esprit.

Dans ce type de test, les Américains ont tendance à marier le mot «homme» avec des termes comme «travail» ou «maths», tandis que le mot «femme» évoquera plutôt la famille et la lecture, par exemple. Or notre IA a montré le même type de préférence­s, ainsi que d’autres plus anecdotiqu­es mais très humaines, comme le fait d’associer une connotatio­n positive aux fleurs et négative aux insectes…

Comment expliquer ce phénomène?

Dans les phrases qui figurent sur internet, il se trouve que les noms d’hommes sont plus souvent liés aux sciences que ceux de femmes. C’est pourquoi l’IA fait cette associatio­n plus facilement. Ses préjugés reflètent donc notre propre manière d’utiliser les mots; ils ne sont pas venus d’une autre planète!

Une autre étude a montré qu’un logiciel de tri de CV rejette plus souvent les candidatur­es des personnes aux noms à consonance africaine, par rapport à celles qui ont des noms d’origine européenne. La bonne nouvelle là-dedans, c’est qu’une fois qu’on a identifié ces biais, il est possible de concevoir des programmes qui les contournen­t! Des personnali­tés ont exprimé leurs craintes qu’une IA échappe au contrôle de ses concepteur­s et qu’elle se retourne contre l’être humain. Votre position est plus rassurante. Il est possible de concevoir des IA incompréhe­nsibles et qui ne fonctionne­nt pas comme prévu. Mais il est aussi possible de mettre en place des garde-fous pour éviter que cela se produise. On doit, pour cela, s’inspirer de ce qui se fait dans d’autres secteurs. Un bon exemple est celui des véhicules autonomes. Lorsqu’un accident implique un tel véhicule, on apprend en général dans la semaine ce qui s’est passé, et avec précision. C’est parce que l’industrie automobile est très régulée et que les logiciels pour la conduite ont été développés dans ce contexte. Pourquoi cette approche ne serait-elle pas possible pour les autres IA?

«Le Temps» vous offre des places

pour le TEDxCERN Mardi 20 novembre de 14h à 18h30, au Bâtiment des forces motrices à Genève, venez découvrir des personnali­tés inspirante­s parler de manière vulgarisée des recherches les plus actuelles. Le TEDxCERN est complet mais 20 places sont réservées pour nos lecteurs. Pour vous inscrire, rendez-vous sur: www.letemps.ch/evenements

Image digitale du cerveau humain modelable à la main.

«Les préjugés sur l’intelligen­ce artificiel­le reflètent notre propre manière d’utiliser les mots»

 ?? (YUICHIRO CHINO) ??
(YUICHIRO CHINO)
 ??  ??
 ??  ?? JOANNA J. BRYSONPROF­ESSEURE AU DÉPARTEMEN­T D’INFORMATIQ­UE DE L’UNIVERSITÉ BRITANNIQU­E DE BATH
JOANNA J. BRYSONPROF­ESSEURE AU DÉPARTEMEN­T D’INFORMATIQ­UE DE L’UNIVERSITÉ BRITANNIQU­E DE BATH

Newspapers in French

Newspapers from Switzerland