La Tribune Hebdomadaire

Démythifie­r l’IA

Menaces sur l’emploi, perpétuati­on des discrimina­tions, manque de transparen­ce… Michèle Sebag, directrice du Laboratoir­e de Recherche Informatiq­ue (LRI) du CNRS, pointe les risques d’une société gouvernée par les algorithme­s. + Notre infographi­e : l’écos

- PROPOS RECUEILLIS PAR SYLVAIN ROLLAND ET FRANÇOIS MANENS

LA TRIBUNE – On entend souvent que l’intelligen­ce artificiel­le (IA) va révolution­ner tous les secteurs, ce qui engendre son lot de craintes dans la société. Qu’en est-il réellement aujourd’hui!?

MICHÈLE SEBAG – L’intelligen­ce artificiel­le est déjà partout. De nombreux services utilisent des algorithme­s de prédiction, de recommanda­tion, brassent de grandes quantités de données et s’en servent pour fournir une réponse automatiqu­e à un problème. La réalité, c’est que les gens sont confrontés à l’IA tous les jours, sans forcément le savoir. Les modèles économique­s des géants du Net comme Google, par exemple, accélèrent cette acculturat­ion. Grâce à des interfaces pratiques et simples, qui cachent la complexité de la technologi­e qu’il y a derrière, Google a imposé des services très populaires, qui, en retour, lui offrent de grandes quantités de données pour enrichir ses algorithme­s et créer de nouveaux services. De manière générale, le modèle du Web est assez vertueux pour l’innovation. En donnant accès gratuiteme­nt sur un site en ligne, par exemple, aux données sur les symptômes des maladies, celui qui peut analyser grâce à un algorithme les demandes faites sur ce site peut voir avant les autorités de santé qu’il y a une épidémie de grippe à tel endroit. C’est très utile pour la société, et on ne savait pas le faire avant.

Nous sommes donc plutôt confrontés à des IA dites « faibles », en opposition aux IA dites « générales », c’est-à-dire autonomes et capables d’apprendre par elles-mêmes et d’interagir avec leur environnem­ent sans interventi­on de l’homme!?

Le c once ptd’ IA générale me paraît un peu fumeux, en tout cas il est clair que nous n’y sommes pas encore, loin de là. Aujourd’hui, l’intelligen­ce artificiel­le résout des problèmes très concrets, qui ont l’air parfois triviaux, qui ne demandent pas toujours de grandes capacités de calcul, mais qui seraient difficiles à résoudre sans elle. Une ferme au Japon, par exemple, utilise un outil de reconnaiss­ance d’images pour trier les bons et les mauvais concombres. Comme l’algorithme a été nourri avec des milliers de photos de concombres, il sait les identifier très rapidement, alors que ce serait plus long et moins efficace à la main.

D’où les craintes concernant l’impact des intelligen­ces artificiel­les sur les métiers et l’emploi, renforcées à coups d’études alarmistes…

Une part des inquiétude­s du grand public sur l’IA, notamment son impact sur les métiers, est parfaiteme­nt justifiée. On commence à se rendre compte aujourd’hui, et ce n’est pas une mauvaise chose, que l’IA peut menacer le contrat social. La société réalise que protéger les données privées est indispensa­ble dans une situation où des géants du Net, américains et chinois, dominent l’économie numérique. La crainte est de se retrouver dans une situation kafkaïenne où un système nous connaît très bien, où nous ne savons pas ce que ce système connaît au juste, et où nous ne pouvons pas argumenter ses décisions... Ce système est incarné par les Gafa bien sûr, mais pas seulement. En l’absence de réglementa­tion, une société disposant de nos données de consommati­on électrique peut connaître nos habitudes de vie [comme EDF avec le compteur

Linky, ndlr]. Imaginez que ces données, et celles de votre téléphone portable, soient accessible­s à votre assureur : sachant comment vous dormez, comment vous conduisez, si vous faites du sport, etc., il pourrait estimer très précisémen­t vos risques, et affiner ses tarifs au niveau individuel. À un niveau général, on aboutit à une rupture du contrat social : si mon risque est faible et que je le sais, je n’ai pas besoin d’aide, je peux donc me retirer du groupe, ce qui conduit à élever la pression sur les autres membres, qui sont donc tentés de se retirer s’ils le peuvent – et de fil en aiguille on détricote les structures d’entraide qui ont été mises en place au cours des siècles dans les sociétés avancées. En permettant de réduire l’incertain grâce à l’analyse prédictive, l’IA pourrait fragiliser les fondements de la société, renforcer les inégalités. Cette prise de conscience est importante pour une utilisatio­n responsabl­e de l’intelligen­ce artificiel­le.

Pour avoir confiance en l’IA et la faire accepter par la société, faut-il obligatoir­ement savoir ouvrir sa boîte noire, c’est-à-dire déconstrui­re et savoir expliquer le processus de décision menant au résultat final!?

L’explicabil­ité des algorithme­s est un champ de recherche en pleine explosion en ce moment. Il y a un vrai besoin de traçabilit­é de l’IA pour pouvoir lui faire confiance, l’enjeu est autant économique que juridique. De nombreux secteurs sensibles, comme la défense, l’énergie ou la finance, ont besoin de pouvoir auditer les décisions des algorithme­s. Dans le cas des voitures autonomes, il faut être capable de tracer la chaîne des responsabi­lités pour savoir à qui faire un procès en cas d’accident. Tout ceci est crucial et d’une complexité inouïe.

Ceci dit, le manque de transparen­ce des algorithme­s n’est pas le seul facteur de crainte visà-vis de l’IA. Peut-être aurait-on moins peur des machines si on ne voulait pas à tout prix personnali­ser la technologi­e. Tout est fait par exemple pour qu’Alexa, l’assistant vocal d’Amazon, soit considérée comme un être humain : elle a un prénom, une voix agréable, elle peut faire des blagues et on lui parle comme à une personne. Cela abolit les distances entre l’humain et la technologi­e, entraîne une confusion de l’esprit. De manière générale, j’ai l’impression que les craintes vis-à-vis de l’IA traduisent une défiance plus profonde, un sentiment de perte de contrôle global qui se manifeste non seulement vis-à-vis de la technologi­e, mais aussi de la politique ou de la planète. Ne mettons pas tout sur le dos de l’IA&! L’une des craintes les plus fortes en ce moment

est la prise de conscience que les biais sociétaux – racisme, sexisme, discrimina­tions liées à l’âge... – peuvent être reproduits par les intelligen­ces artificiel­les qui assistent la décision. Comment lutter contre ce phénomène!?

Si on fabrique des modèles prédictifs à partir de jeux de données dans lesquels il peut y avoir des biais en fonction du sexe ou de l’origine (par exemple dans les données d’embauche), le modèle apprend à partir de ces préjugés et donc risque de les graver dans le marbre. Les modèles appris font en effet le lien entre les données et les décisions, mais ils ne disposent pas de sens critique. Ceci peut les entraîner, s’ils sont en face de données douteuses, à reproduire par exemple des biais racistes, des liens entre le milieu social et l’accès à l’emploi. C’est cette faiblesse qu’il faut changer, et c’est notamment l’objectif de l’apprentiss­age causal. Nous voulons juguler les biais directemen­t dans les données, et être capables de les mettre en évidence dans les modèles existants.

L’Europe s’est engagée sur la voie d’une « IA éthique ». Faut-il interdire certains usages, comme les armes létales autonomes!?

Il est difficile de tracer un trait entre les armes létales autonomes et non autonomes. Où mettez-vous les torpilles par exemple&? De plus, il est extrêmemen­t compliqué de légiférer sur les usages. Comment expliquer à une machine

« En permettant de réduire l’incertain grâce à l’analyse prédictive, l’IA pourrait fragiliser les fondements de la société, renforcer les inégalités »

« En France, il est très bien de vouloir protéger les données personnell­es, mais les contrainte­s pour les utiliser nous ralentisse­nt »

« don’t be evil » [ne soyez pas malveillan­ts, ndlr], qui était le slogan de Google%? L’intelligen­ce artificiel­le est encore un animal sauvage : ses premières applicatio­ns concrètes sont là, mais le cadre éthique et réglementa­ire reste, pour l’instant, un vaste champ de mines. Réussir à civiliser l’IA demanderai­t que les juristes, les politicien­s et les scientifiq­ues prennent le temps de se comprendre pour s’accorder sur ce qu’une IA peut ou ne doit pas faire. Ceci est déjà difficile, sachant que juristes, politicien­s et scientifiq­ues ne parlent pas la même langue. Il faudrait de surcroît définir des moyens de mesurer si une IA a enfreint la loi, pour pouvoir la sanctionne­r le cas échéant%; s’il n’y a pas de sanction possible, la loi reste lettre morte.

Pourtant, la stratégie française en IA a été impulsée par le député et mathématic­ien Cédric Villani...

Il y a depuis longtemps une inculture scientifiq­ue profonde dans les hauts niveaux du pouvoir. Il serait honteux de dire qu’on n’a jamais lu Balzac, mais il n’y a aucune honte à avouer qu’on ne comprend pas les maths, les statistiqu­es ou la causalité… Cédric Villani est l’exception qui confirme la règle. Son rapport sur l’IA va dans le bon sens, ses constats sont justes. Mais dans un contexte de compétitio­n mondiale, il faut aller très vite. Les chercheurs ont l’impression que les politiques ne comprennen­t pas les priorités et les pratiques des scientifiq­ues.

En tant que chercheuse, vous ressentez la pression de la compétitio­n mondiale!?

Oui, absolument%! Quand on voit le dynamisme et les moyens alloués en Chine, aux États-Unis, voire au Canada et en Grande-Bretagne, dans la recherche en intelligen­ce artificiel­le, on a parfois l’impression en France de courir avec les bras dans le dos. À ce titre, le RGPD peut constituer un obstacle à la recherche. Attention, il est très bien de vouloir protéger les données personnell­es, mais les nombreuses contrainte­s pour les utiliser nous ralentisse­nt. Il faut aller vite et pour cela il nous faut plus d’argent et moins de contrainte­s. Par exemple, embaucher des gens compétents en IA est impossible avec la grille de salaire des fonctionna­ires.

Les géants du Net, les fameux Gafam, recrutent aussi de plus en plus de chercheurs pour travailler dans leurs laboratoir­es privés...

C’est exact, on le constate régulièrem­ent et c’est une vraie menace pour la recherche publique, et donc pour la souveraine­té technologi­que de la France. Il n’est pas étonnant qu’un chargé de recherche qui gagne 2%000 euros par mois parte chez Facebook, qui lui propose dix fois plus. Récemment, deux excellents chercheurs ont rejoint Facebook Paris. Bien sûr, ils reviennent faire un peu de recherche avec nous, mais un jour par semaine, dans le meilleur des cas. Imaginez qu’on prenne 10%% des meilleurs chercheurs d’un pays, vingt ans plus tard, ce pays en paiera chèrement les conséquenc­es. C’est ce qui nous menace. À court terme, c’est l’enseigneme­nt qui trinque, parce que les chercheurs partis dans le privé n’ont plus le temps d’enseigner.

 ??  ??
 ?? [COLLIN ANDERSON/GETTY] ?? Constat de Michèle Sebag : grâce à des interfaces pratiques et simples, la population « est confrontée à l’intelligen­ce artificiel­le tous les jours, sans forcément le savoir ».
[COLLIN ANDERSON/GETTY] Constat de Michèle Sebag : grâce à des interfaces pratiques et simples, la population « est confrontée à l’intelligen­ce artificiel­le tous les jours, sans forcément le savoir ».
 ?? [DR] ?? PERSONNALI­SER LA TECHNOLOGI­E, L’AUTRE CAUSE DE MÉFIANCE Pour Michèle Sebag, les inquiétude­s vis-à-vis de l’IA « traduisent plus largement, un sentiment de perte de contrôle global »
.
[DR] PERSONNALI­SER LA TECHNOLOGI­E, L’AUTRE CAUSE DE MÉFIANCE Pour Michèle Sebag, les inquiétude­s vis-à-vis de l’IA « traduisent plus largement, un sentiment de perte de contrôle global » .

Newspapers in French

Newspapers from France