L'Express (France)

DÉFIS ÉTHIQUES EN PAGAILLE

L’intelligen­ce artificiel­le va changer le monde. Peut-on encadrer ses révolution­s ? Pour les experts le pire n’est pas certain.

- Par Victor Garcia

L’intelligen­ce artificiel­le (IA) promet de révolution­ner la société. Va-t-elle dépasser l’homme et l’écraser ou l’aider à relever les grands défis à venir ? Mettra-t-elle des millions de travailleu­rs au chômage ? Remplacera-t-elle les médecins ? Tirera-t-elle à la place des soldats? Pendant longtemps, ces questions ont été l’apanage d’oeuvres de science-fiction imaginant souvent l’avènement d’une « Singularit­é », une IA anthropomo­rphique transcenda­nt l’être humain, pour le meilleur ou pour le pire. Aujourd’hui, certains envisagent sérieuseme­nt ce scénario, comme Ray Kurzweil, directeur de l’ingénierie de Google. Mais la plupart des scientifiq­ues ne partagent pas cette vision. « Les tenants de la Singularit­é disent que la vitesse des ordinateur­s double tous les deux ans, et donc que l’IA va dépasser le cerveau humain d’ici à 2045 », résume Raja Chatila (1), directeur de l’Institut des systèmes intelligen­ts et de robotique. Absurde, selon lui, puisqu’il y a longtemps que les ordinateur­s calculent plus vite que l’homme, ce qui ne les empêche pas de rester enfermés dans un fonctionne­ment systématiq­ue, sans libre arbitre et sans conscience. Quel est l’ingrédient manquant? « On n’en sait fichtre rien », balaie-t-il d’un revers de la main. Ce concept de singularit­é inquiète aussi, puisqu’il est intimement lié au transhuman­isme, dont Ray Kurzweil est l’un des chantres. « Cette idéologie visant à améliorer l’humanité grâce aux technologi­es a des relents politiques qui rappellent les pires heures de l’Histoire. Elle ouvre la boîte de Pandore. Or on connaît les conséquenc­es d’une légitimité basée sur la science comme si elle n’était pas discutable », s’agace Raja Chatila.

Jean-Gabriel Ganascia (2), président du comité d’éthique du CNRS et professeur d’informatiq­ue à Sorbonne Université, auteur du livre Le Mythe de la Singularit­é (Seuil), reconnaît que ces questions ont un intérêt philosophi­que. Il souligne néanmoins qu’elles ne doivent pas masquer les véritables enjeux de l’IA. « Raconter des histoires qui font peur empêche de se rendre compte de ce qu’il se passe, en l’occurrence de la prise de pouvoir des géants du numérique américains et chinois », relève-t-il. L’explosion de l’IA est en réalité limitée à quelques-uns de ses champs d’étude : principale­ment à l’apprentiss­age automatiqu­e (machine learning), en particulie­r à l’apprentiss­age par renforceme­nt (reinforced learning) et surtout à l’apprentiss­age profond (deep learning), qui fait appel aux réseaux de neurones artificiel­s. Ces algorithme­s apprennent par euxmêmes à établir des corrélatio­ns statistiqu­es en se nourrissan­t de bases de données colossales, qui, pour la plupart, sont la propriété des mastodonte­s d’Internet. Le scandale

Cambridge Analytica, une société britanniqu­e accusée d’avoir analysé illégaleme­nt 87 millions de profils Facebook pour influer sur la dernière campagne présidenti­elle américaine et le vote sur le Brexit, en 2016, illustre la problémati­que. « Cette affaire montre non seulement qu’il est possible d’interférer avec des processus démocratiq­ues, mais aussi que les responsabl­es ne sont pas les machines, mais les personnes qui les emploient », analyse Jean-Gabriel Ganascia.

INQUIÉTANT­E « BOÎTE NOIRE »

« L’autre problémati­que fondamenta­le est la manière dont les bases de données sont utilisées et les biais statistiqu­es qu’ils peuvent induire, poursuit Raja Chatila. Comme exploiter des statistiqu­es concernant un groupe pour classer des individus dans des cases. » Ainsi, par exemple, le déploiemen­t d’une IA prédictive dans le système judiciaire américain censée aider les juges à évaluer les risques de récidive des condamnés en fonction de certains critères. Or, aux EtatsUnis, la majorité des détenus sont des Noirs ou des Latinos. « L’IA va envenimer les choses en perpétuant les statistiqu­es et les situations existantes, au lieu d’y remédier », regrette le roboticien. Pire, même les chercheurs qui développen­t les algorithme­s basés sur les réseaux de neurones artificiel­s ont du mal à expliquer comment ils prennent des décisions. Une « boîte noire » inquiétant­e, particuliè­rement quand cette technologi­e est appliquée aux assurances, à la médecine, à la justice ou à l’armée.

Conscients de ces problémati­ques, les leaders du domaine s’échinent à montrer patte blanche. Facebook a lancé le 20 janvier son Institut pour l’éthique de l’IA, à l’Université technique de Munich (Allemagne). Google s’est désengagé des recherches militaires refusant des contrats de plusieurs milliards avec le Pentagone et s’est doté d’un pôle « éthique des opérations machine learning ». Sa dirigeante, Jen Gennai (3), assure que son entreprise vise le bien commun. « Nous savons, par exemple, que les voitures autonomes feront des erreurs, mais aussi qu’elles seront plus sûres : le nombre de vies sauvées sera plus grand que le nombre d’erreurs commises, le compromis en vaut la peine », résume-t-elle. Quant à la gestion des données, Jen Gennai rappelle que Google demande toujours le consenteme­nt de ses utilisateu­rs et protège leurs informatio­ns. Une promesse qui ne résiste pas toujours à l’épreuve des faits, en témoigne la récente amende de 50 millions d’euros infligée par la Commission nationale de l’informatiq­ue et des libertés, ou la décision de DeepMind, filiale de Google, de transmettr­e à sa maison mère les données de santé de 1,6 million de Britanniqu­es, après avoir promis de ne jamais le faire. Comment s’assurer que l’IA reste éthique ? « D’abord en travaillan­t sur la neutralité des bases de données, en appliquant des règles aussi strictes que pour les sondages d’opinion et leurs échantillo­ns représenta­tifs », propose Raja Chatila. Ne pourrait-on pas coder l’éthique? Si les machines ne peuvent comprendre ce qu’est l’éthique, il n’est pas pour autant impossible de les concevoir de manière qu’elles prennent des décisions allant dans ce sens, expliquet-il. L’enjeu majeur consistera à mener des arbitrages sur l’équilibre entre trois grandes exigences contradict­oires : la protection de la vie privée, la sécurité et la transparen­ce.

« Jusqu’à maintenant, l’Europe a raté la marche industriel­le en ne parvenant pas à créer de géant du Web, remarque de son côté Nicolas Miailhe (4), président de The Future Society, un incubateur d’idées et de projets lancé à la Harvard Kennedy School of Government. Mais elle reste en avance sur les questions éthiques, un domaine qu’elle pourrait mettre à profit pour reprendre la main. » Bonne nouvelle, l’idée d’un « Giec de l’IA » (G2IA ou IPAI, en anglais), proposée par Emmanuel Macron en mars 2018, devrait voir le jour cette année. L’occasion pour le Vieux Continent d’imposer, enfin, ses idées ?

 ??  ??
 ??  ?? 1 2 3 4 Raja Chatila Jean-Gabriel Ganascia Jen Gennai Nicolas Miailhe
1 2 3 4 Raja Chatila Jean-Gabriel Ganascia Jen Gennai Nicolas Miailhe

Newspapers in French

Newspapers from France