Pas d’intelligence artificielle éthique sans humains éthiques
L’IDÉE
Davos 2019, la réunion annuelle du Forum économique mondial, a eu lieu en janvier dernier dans la ville suisse du même nom. Comme on pouvait s’y attendre, l’intelligence artificielle (IA) s’est imposée comme l’un des principaux sujets de discussion (pas moins de 40 sessions lui ont été consacrées, ce qui la plaçait au deuxième rang, juste derrière le commerce entre les États-Unis et la Chine). Cependant, la majeure partie des débats ont porté sur la structuration de principes abstraits concernant l’importance de l’éthique en matière d’IA ou, au mieux, sur la nécessité d’une collaboration et de recherches dans ce domaine.
Il me semble primordial d’insister sur l’importance de formuler les problèmes auxquels, selon toute vraisemblance, nous serons confrontés à mesure que l’intelligence artificielle prendra de l’ampleur, tant en termes de performances que de portée. Tôt ou tard, l’IA aura une incidence sur le monde, et pas seulement sur Internet. Nous avons atteint un stade où il est nécessaire d’agir, et non de rester assis à discuter.
Multiplier les grandes envolées philosophiques sans proposer de procédures concrètes de mise en oeuvre ou d’application de ces idées est un moyen pour les entreprises de ne s’attaquer qu’à la surface du problème, tout en évitant de faire quoi que ce soit qui pourrait avoir un impact négatif sur leurs bénéfices. L’éthique, tout comme la sécurité, doit être bien plus qu’un simple ressort publicitaire.
Certains des points soulevés à Davos font écho aux sentiments que j’ai exprimés par le passé. Ils sont intéressants dans la mesure où ils font office de diagnostic de l’impact que l’IA pourrait avoir sur les entreprises et sur la société en général. L’un des points de vue que je partage depuis des années, au regard d’un sentiment de plus en plus méfiant vis-à-vis de la technologie qui est perçue sous un jour dystopique, est que l’intelligence artificielle est agnostique. J’ai été heureux d’entendre Marc Benioff, PDG de Salesforce, le souligner. La question de savoir de quelle façon nous allons intégrer cette technologie dans notre monde est d’autant plus cruciale lorsque nous prenons toute la mesure de cette caractéristique fondamentale.
L’ÉTHIQUE NE FONCTIONNE PAS COMME LES ÉCHECS
L’intelligence artificielle nous donnera un immense pouvoir, pour le pire ou pour le meilleur, de la même façon que la fission d’un atome peut générer une énergie qui nous est utile ou créer une bombe dévastatrice. Lors des débats théoriques tenus à Davos, les participants ont donné l’impression qu’il était possible de créer une IA qui serait intrinsèquement bonne, ou, à tout le moins, incapable de faire le mal. C’est un peu comme croire que nous pouvons élever un enfant de cette façon : il s’agit là d’une erreur de raisonnement évidente.
Bien sûr, les êtres humains ont leur libre arbitre, alors que l’intelligence artificielle n’en montre aucun signe, peu importe l’autonomie que nous lui accordons$; mais l’éthique ne fonctionne pas comme les échecs. Il nous est impossible de simplement concevoir des machines qui seraient plus éthiques que nous – contrairement à un informaticien qui pourrait créer un programme d’échecs qui y jouerait bien mieux que de vrais joueurs. L’une des clés est d’utiliser ces machines pour mettre à jour nos préjugés d’êtres humains afin que nous puissions nous améliorer et rendre notre société meilleure grâce à un cercle vertueux.
Mais reconnaître nos préjugés n’est que le premier pas. Les chefs d’entreprise et les chargés de stratégie se doivent d’adapter leurs pratiques – et d’engager un conseiller en éthique et déontologie, comme l’a fait récemment Salesforce dont je salue le geste. Idéalement, le comportement éthique est également rentable, mais, si ce n’est pas le cas, il doit être imposé – au sens même de la loi – et c’est cela que les entreprises appréhendent. L’importance que revêt la coopération des êtres humains avec l’intelligence artificielle représente un autre thème abordé à plusieurs reprises lors du Forum économique mondial. Comme je l’ai longuement expliqué dans mon livre, Deep Thinking (non traduit), la technologie fonctionne mieux lorsque les êtres humains y sont associés. Jusqu’ici, l’intelligence artificielle n’a pas montré qu’elle était en mesure de les surpasser en matière de créativité ou de discernement. Ses points forts sont l’assimilation de grandes quantités de données, le suivi des tendances et l’établissement de prévisions, et non la capacité à identifier ses propres préconceptions ou l’interprétation de contextes sociaux nuancés.
NOUS DEVONS RESTER AMBITIEUX DANS NOS OBJECTIFS
Les entreprises l’ont bien compris. C’est pour cette raison que les réseaux sociaux emploient des êtres humains dont la tâche consiste à s’assurer que les algorithmes de filtrage de l’information fonctionnent comme prévu. De même, les professionnels de la santé, grâce à leur connaissance plus directe du dossier de leurs patients, devront toujours confirmer les recommandations formulées par les systèmes d’intelligence artificielle. Un système de services automatisés ne remplacera pas autant le travail des êtres humains qu’il leur permettra de disposer de plus de temps pour résoudre des problèmes qui échappent à l’IA. Et la portée de cette dernière ne fait que grandir – nous formons nos remplaçants dans les règles de l’art – et nous devons donc rester ambitieux dans nos objectifs afin de continuer d’être à la pointe du progrès. Dès lors, comment les chefs d’entreprise et les décisionnaires peuvent-ils appliquer ces enseignements$? Je doute que les stratégies mises en place par la majorité de l’industrie technologique soient suffisantes pour susciter un changement significatif. Selon ce modèle, les organisations, si elles ne font l’objet d’aucun contrôle, devront prendre des mesures de leur propre chef pour minimiser les inconvénients ainsi que les dangers potentiels de l’IA. Certaines de ces actions nécessaires auront sans doute des conséquences négatives sur les bénéfices de ces entreprises, et nous avons trop souvent vu les géants de la Silicon Valley donner la priorité aux intérêts de leurs actionnaires. Voici le dernier exemple en date : même après des années d’examen minutieux de ses pratiques, Facebook a admis avoir payé des adolescents 20 dollars par mois pour l’installation d’une « application de recherche » destinée à télécharger l’ensemble du contenu de leur téléphone ainsi que de leur activité sur Internet. Il est difficile d’avoir foi en des entités de ce genre qui trahissent si régulièrement la confiance du grand public. Je suspecte que, dans le monde de l’IA aussi, on ne puisse espérer rien de mieux que des mesures tièdes qui relèveront du coup médiatique mais qui ne conduiront à aucun changement significatif en termes de comportement. Cela signifie que les autorités publiques auront, tôt ou tard, un rôle à jouer dans ce domaine, dans la limite du raisonnable. On peut comparer – sans risque d’exagérer, il me semble – la situation actuelle à celle du xixe siècle qui a vu émerger le règne des rois du rail et des titans de la finance. À cette époque-là aussi, les intérêts en jeu étaient tout simplement trop écrasants et incompatibles avec le bien commun$; l’initiative de Theodore Roosevelt de morceler les compagnies fiduciaires a été une réponse appropriée.
Bien que je sois loin d’être partisan d’un modèle de gouvernance trop puissant – j’ai été le témoin des pires abus du genre en tant que citoyen soviétique – il y a des situations dans lesquelles il est nécessaire de légiférer et de superviser. L’OCDE a déjà commencé à organiser des conférences sur l’intelligence artificielle afin de réunir autour de la même table les acteurs de l’industrie, du monde académique et des gouvernements.
La notion d’« intelligence » dans l’expression « intelligence artificielle » ne suffit pas à la rendre plus éthique que les autres technologies. Il n’a jamais été question de « machine à vapeur éthique » ou de « radio éthique » ; il ne peut être question que d’une utilisation éthique des technologies, ce qui exige la mise en place de normes et de réglementations. Nous sommes encore bien en retard en ce qui concerne un « Internet éthique », du fait de violations qui dépassent et devancent les normes et les législations. Cela ne signifie pas pour autant que nous devons baisser les bras$; seulement que nous devons consentir plus d’efforts et accomplir un meilleur travail.
« La notion d’“intelligence” dans l’expression “intelligence artificielle” ne suffit pas à la rendre plus éthique que les autres technologies »