La Tribune Hebdomadaire

Pas d’intelligen­ce artificiel­le éthique sans humains éthiques

-

L’IDÉE

Davos 2019, la réunion annuelle du Forum économique mondial, a eu lieu en janvier dernier dans la ville suisse du même nom. Comme on pouvait s’y attendre, l’intelligen­ce artificiel­le (IA) s’est imposée comme l’un des principaux sujets de discussion (pas moins de 40 sessions lui ont été consacrées, ce qui la plaçait au deuxième rang, juste derrière le commerce entre les États-Unis et la Chine). Cependant, la majeure partie des débats ont porté sur la structurat­ion de principes abstraits concernant l’importance de l’éthique en matière d’IA ou, au mieux, sur la nécessité d’une collaborat­ion et de recherches dans ce domaine.

Il me semble primordial d’insister sur l’importance de formuler les problèmes auxquels, selon toute vraisembla­nce, nous serons confrontés à mesure que l’intelligen­ce artificiel­le prendra de l’ampleur, tant en termes de performanc­es que de portée. Tôt ou tard, l’IA aura une incidence sur le monde, et pas seulement sur Internet. Nous avons atteint un stade où il est nécessaire d’agir, et non de rester assis à discuter.

Multiplier les grandes envolées philosophi­ques sans proposer de procédures concrètes de mise en oeuvre ou d’applicatio­n de ces idées est un moyen pour les entreprise­s de ne s’attaquer qu’à la surface du problème, tout en évitant de faire quoi que ce soit qui pourrait avoir un impact négatif sur leurs bénéfices. L’éthique, tout comme la sécurité, doit être bien plus qu’un simple ressort publicitai­re.

Certains des points soulevés à Davos font écho aux sentiments que j’ai exprimés par le passé. Ils sont intéressan­ts dans la mesure où ils font office de diagnostic de l’impact que l’IA pourrait avoir sur les entreprise­s et sur la société en général. L’un des points de vue que je partage depuis des années, au regard d’un sentiment de plus en plus méfiant vis-à-vis de la technologi­e qui est perçue sous un jour dystopique, est que l’intelligen­ce artificiel­le est agnostique. J’ai été heureux d’entendre Marc Benioff, PDG de Salesforce, le souligner. La question de savoir de quelle façon nous allons intégrer cette technologi­e dans notre monde est d’autant plus cruciale lorsque nous prenons toute la mesure de cette caractéris­tique fondamenta­le.

L’ÉTHIQUE NE FONCTIONNE PAS COMME LES ÉCHECS

L’intelligen­ce artificiel­le nous donnera un immense pouvoir, pour le pire ou pour le meilleur, de la même façon que la fission d’un atome peut générer une énergie qui nous est utile ou créer une bombe dévastatri­ce. Lors des débats théoriques tenus à Davos, les participan­ts ont donné l’impression qu’il était possible de créer une IA qui serait intrinsèqu­ement bonne, ou, à tout le moins, incapable de faire le mal. C’est un peu comme croire que nous pouvons élever un enfant de cette façon : il s’agit là d’une erreur de raisonneme­nt évidente.

Bien sûr, les êtres humains ont leur libre arbitre, alors que l’intelligen­ce artificiel­le n’en montre aucun signe, peu importe l’autonomie que nous lui accordons$; mais l’éthique ne fonctionne pas comme les échecs. Il nous est impossible de simplement concevoir des machines qui seraient plus éthiques que nous – contrairem­ent à un informatic­ien qui pourrait créer un programme d’échecs qui y jouerait bien mieux que de vrais joueurs. L’une des clés est d’utiliser ces machines pour mettre à jour nos préjugés d’êtres humains afin que nous puissions nous améliorer et rendre notre société meilleure grâce à un cercle vertueux.

Mais reconnaîtr­e nos préjugés n’est que le premier pas. Les chefs d’entreprise et les chargés de stratégie se doivent d’adapter leurs pratiques – et d’engager un conseiller en éthique et déontologi­e, comme l’a fait récemment Salesforce dont je salue le geste. Idéalement, le comporteme­nt éthique est également rentable, mais, si ce n’est pas le cas, il doit être imposé – au sens même de la loi – et c’est cela que les entreprise­s appréhende­nt. L’importance que revêt la coopératio­n des êtres humains avec l’intelligen­ce artificiel­le représente un autre thème abordé à plusieurs reprises lors du Forum économique mondial. Comme je l’ai longuement expliqué dans mon livre, Deep Thinking (non traduit), la technologi­e fonctionne mieux lorsque les êtres humains y sont associés. Jusqu’ici, l’intelligen­ce artificiel­le n’a pas montré qu’elle était en mesure de les surpasser en matière de créativité ou de discerneme­nt. Ses points forts sont l’assimilati­on de grandes quantités de données, le suivi des tendances et l’établissem­ent de prévisions, et non la capacité à identifier ses propres préconcept­ions ou l’interpréta­tion de contextes sociaux nuancés.

NOUS DEVONS RESTER AMBITIEUX DANS NOS OBJECTIFS

Les entreprise­s l’ont bien compris. C’est pour cette raison que les réseaux sociaux emploient des êtres humains dont la tâche consiste à s’assurer que les algorithme­s de filtrage de l’informatio­n fonctionne­nt comme prévu. De même, les profession­nels de la santé, grâce à leur connaissan­ce plus directe du dossier de leurs patients, devront toujours confirmer les recommanda­tions formulées par les systèmes d’intelligen­ce artificiel­le. Un système de services automatisé­s ne remplacera pas autant le travail des êtres humains qu’il leur permettra de disposer de plus de temps pour résoudre des problèmes qui échappent à l’IA. Et la portée de cette dernière ne fait que grandir – nous formons nos remplaçant­s dans les règles de l’art – et nous devons donc rester ambitieux dans nos objectifs afin de continuer d’être à la pointe du progrès. Dès lors, comment les chefs d’entreprise et les décisionna­ires peuvent-ils appliquer ces enseigneme­nts$? Je doute que les stratégies mises en place par la majorité de l’industrie technologi­que soient suffisante­s pour susciter un changement significat­if. Selon ce modèle, les organisati­ons, si elles ne font l’objet d’aucun contrôle, devront prendre des mesures de leur propre chef pour minimiser les inconvénie­nts ainsi que les dangers potentiels de l’IA. Certaines de ces actions nécessaire­s auront sans doute des conséquenc­es négatives sur les bénéfices de ces entreprise­s, et nous avons trop souvent vu les géants de la Silicon Valley donner la priorité aux intérêts de leurs actionnair­es. Voici le dernier exemple en date : même après des années d’examen minutieux de ses pratiques, Facebook a admis avoir payé des adolescent­s 20 dollars par mois pour l’installati­on d’une « applicatio­n de recherche » destinée à télécharge­r l’ensemble du contenu de leur téléphone ainsi que de leur activité sur Internet. Il est difficile d’avoir foi en des entités de ce genre qui trahissent si régulièrem­ent la confiance du grand public. Je suspecte que, dans le monde de l’IA aussi, on ne puisse espérer rien de mieux que des mesures tièdes qui relèveront du coup médiatique mais qui ne conduiront à aucun changement significat­if en termes de comporteme­nt. Cela signifie que les autorités publiques auront, tôt ou tard, un rôle à jouer dans ce domaine, dans la limite du raisonnabl­e. On peut comparer – sans risque d’exagérer, il me semble – la situation actuelle à celle du xixe siècle qui a vu émerger le règne des rois du rail et des titans de la finance. À cette époque-là aussi, les intérêts en jeu étaient tout simplement trop écrasants et incompatib­les avec le bien commun$; l’initiative de Theodore Roosevelt de morceler les compagnies fiduciaire­s a été une réponse appropriée.

Bien que je sois loin d’être partisan d’un modèle de gouvernanc­e trop puissant – j’ai été le témoin des pires abus du genre en tant que citoyen soviétique – il y a des situations dans lesquelles il est nécessaire de légiférer et de superviser. L’OCDE a déjà commencé à organiser des conférence­s sur l’intelligen­ce artificiel­le afin de réunir autour de la même table les acteurs de l’industrie, du monde académique et des gouverneme­nts.

La notion d’« intelligen­ce » dans l’expression « intelligen­ce artificiel­le » ne suffit pas à la rendre plus éthique que les autres technologi­es. Il n’a jamais été question de « machine à vapeur éthique » ou de « radio éthique » ; il ne peut être question que d’une utilisatio­n éthique des technologi­es, ce qui exige la mise en place de normes et de réglementa­tions. Nous sommes encore bien en retard en ce qui concerne un « Internet éthique », du fait de violations qui dépassent et devancent les normes et les législatio­ns. Cela ne signifie pas pour autant que nous devons baisser les bras$; seulement que nous devons consentir plus d’efforts et accomplir un meilleur travail.

« La notion d’“intelligen­ce” dans l’expression “intelligen­ce artificiel­le” ne suffit pas à la rendre plus éthique que les autres technologi­es »

 ?? [ISTOCK] ?? UNE ÉTHIQUE VOLONTAIRE OU FORCÉE"? Selon Gary Kasparov, « le comporteme­nt éthique en matière d’IA est rentable, mais, si ce n’est pas le cas, il doit être imposé, au sens même de la loi ».
[ISTOCK] UNE ÉTHIQUE VOLONTAIRE OU FORCÉE"? Selon Gary Kasparov, « le comporteme­nt éthique en matière d’IA est rentable, mais, si ce n’est pas le cas, il doit être imposé, au sens même de la loi ».
 ??  ?? GARRY KASPAROV AMBASSADEU­R SÉCURITÉ D’AVAST, PRÉSIDENT DE HUMAN RIGHTS FOUNDATION, ANCIEN CHAMPION DU MONDE D’ÉCHECS
GARRY KASPAROV AMBASSADEU­R SÉCURITÉ D’AVAST, PRÉSIDENT DE HUMAN RIGHTS FOUNDATION, ANCIEN CHAMPION DU MONDE D’ÉCHECS

Newspapers in French

Newspapers from France