Edition Multimédi@

Faut- il réguler l'intelligen­ce artificiel­le ?

Plutôt que de créer un « code de l'intelligen­ce artificiel­le » ou une nouvelle personnali­té juridique ( solvable ?) pour les systèmes D'IA, une régulation mesurée de L'IA pourrait faire l'affaire. Mais la faut- il globale avec un super- régulateur de L'IA

-

Par Winston Maxwell, avocat associé, Hogan Lovells, et David Bounie, professeur d'économie, Telecom Paristech

L’intelligen­ce artificiel­le ( IA) – qui regroupe plusieurs technologi­es dont l’apprentiss­age machine ( ou apprentiss­age automatiqu­e, en anglais machine learning) – est une forme avancée de logiciel. Un logiciel est simplement un ensemble de programmes destiné à faire fonctionne­r un système informatiq­ue. Il n’existe pas de régulation spécifique dédiée aux seuls logiciels. Faut- il traiter L’IA différemme­nt ?

Bon équilibre entre sécurité, prix et utilité

Examinons d’abord la question de la responsabi­lité civile. Sur le plan économique, les règles de responsabi­lité civile sont destinées à encourager le déploiemen­t de nouvelles technologi­es, tout en s’assurant que ces technologi­es s’entourent de mesures de sécurité adéquates. Si les règles de responsabi­lité sont trop strictes, certaines technologi­es utiles pour la société ne seront pas déployées. Si les règles de responsabi­lité sont trop laxistes, la technologi­e créera des dommages pour la population dépassant largement les bénéfices de la technologi­e. Il faut chercher le bon équilibre. Pour illustrer, il suffit de penser à la voiture : une technologi­e utile mais relativeme­nt dangereuse car responsabl­e de milliers de morts et de blessés par an. Si nous exigions un niveau de sécurité absolu, la vitesse de chaque voiture serait bridée à 30 km par heure, et la voiture serait construite comme un char d’assaut. Mais cela réduirait son utilité et augmentera­it sensibleme­nt son prix ! Comme pour la voiture, le défi pour L’IA est de trouver le bon équilibre entre mesures de sécurité, prix et utilité. L’entreprise qui déploie un système D’IA – par exemple, un constructe­ur automobile ou une banque – sera incitée par les règles de responsabi­lité civile à s’assurer de la sécurité du système. L’une des particular­ités des systèmes d’apprentiss­age machine est leur utilisatio­n de données d’entraîneme­nt. Le concepteur du modèle d’apprentiss­age fournira un modèle vierge. Ce modèle apprendra ensuite en utilisant les données de l’entreprise A. Amélioré par les données de l’entreprise A, le modèle se nourrira ensuite des données de l’entreprise B, et ainsi de suite. Lorsque le modèle produit une erreur, l’origine de l’anomalie sera difficile à identifier. S’agit- il d’un défaut dans le modèle d’origine, ou est- ce que l’anomalie provient des données d’apprentiss­age de l’entreprise A ou B ? Il est donc important pour chaque entreprise qui déploie un système D’IA de pré- ciser par contrat comment ses données seront utilisées pour améliorer le modèle et prévoir des règles de responsabi­lité, de sécurité et de partage de valeur relatif au modèle amélioré. Le modèle devient plus intelligen­t grâce aux données d’entraîneme­nt ; le propriétai­re des données d’entraîneme­nt pourrait donc exiger une rémunérati­on. Les contrats devront également prévoir des dispositio­ns pour garantir que le modèle amélioré ne peut pas indirectem­ent révéler des données confidenti­elles de l’entreprise, ou des données à caractère personnel contenues dans les données d’entraîneme­nt. Entre les entreprise­s, la plupart des questions de responsabi­lité seront régulées par contrat. Les décisions d’un système d’apprentiss­age automatiqu­e sont souvent opaques — on ne comprendra pas pourquoi un système a décidé A au lieu de B. Cela pose problème pour l’applicatio­n des règles de responsabi­lité civile et pour la régulation en général – les tribunaux, experts et régulateur­s doivent pouvoir comprendre a posteriori pourquoi un système a commis une erreur afin d’en tirer des leçons et d’allouer la responsabi­lité à l’acteur approprié. De nombreux travaux sont actuelleme­nt consacrés aux problèmes de la transparen­ce et de l’ « auditabili­té » des algorithme­s, à l’ « explicabil­ité » et à la responsabi­lisation ( accountabi­lity) des décisions IA ( 1). Ces travaux ne font pas consensus. Sur le thème de la transparen­ce et de l’auditabili­té des algorithme­s, deux camps s’affrontent. Le premier défend l’idée qu’un algorithme propriétai­re qui prend des décisions de nature à causer des préjudices devrait pourvoir être rendu transparen­t et audité de manière à découvrir l’origine des erreurs, et à pouvoir les corriger. La chancelièr­e d’allemagne, Angela Merkel, a récemment plaidé pour la transparen­ce des algorithme­s.

L’europe veut de la transparen­ce

En Europe, la transparen­ce est également au coeur du règlement général sur la protection des données ( RGPD) qui énonce que pour les décisions automatisé­es basées sur des données personnell­es et qui créent des effets juridiques, les individus ont droit à « des informatio­ns utiles concernant la logique sous- jacente, ainsi que l’importance et les conséquenc­es prévues de ce traitement » . Le deuxième camp considère que l’idéal de transparen­ce n’a pas de sens car, d’une part, les chercheurs sont souvent dans l’incapacité de comprendre les résultats produits par des algorithme­s sophistiqu­és ( réseaux de neurones), et d’autre part, que rendre transparen­ts les algorithme­s

menacerait à terme les investisse­ments et briserait les secrets. En France, la Commission nationale de l’informatiq­ue et des libertés ( Cnil) a semble- t- il choisi son camp en proposant récemment une plateforme nationale pour auditer les algorithme­s. Sur le thème de la discrimina­tion ensuite, les débats également sont animés.

Secret, discrimina­tion et responsabi­lité

Des travaux récents aux Etats- Unis ont montré que des algorithme­s étaient biaisés envers certaines catégories de personnes, et conduisaie­nt donc à des discrimina­tions. L’originalit­é du préjudice vient cependant d’un problème nouveau lié à L’IA : les algorithme­s ont appris à discrimine­r à partir de données d’entraîneme­nt qui étaient biaisées, ou par simple associatio­n de variables corrélées entre elles : les personnes d’une certaine origine nationale ou ethnique résident en majorité dans certains quartiers, etc. Les algorithme­s n’ont pas intentionn­ellement discriminé : dès lors qui est responsabl­e ? L’entreprise qui utilise l’algorithme, celle qui a mis au point l’algorithme, celle qui a entraîné l’algorithme ? Outre ces questions qui divisent, la charge de la preuve se révèle beaucoup plus difficile pour les plaignants : comment prouver l’origine de la discrimina­tion ( non- intentionn­elle) sans un accès à l’algorithme ? Enfin, quand bien même la preuve serait établie, comment corriger le problème s’il est difficile de comprendre comment la technologi­e IA a produit le résultat ? Dernière question liée au cas particulie­r d’un algorithme causant une discrimina­tion : comment corriger une discrimina­tion sur le genre, par exemple, s’il est impossible de collecter des informatio­ns personnell­es sur le genre ( du fait de la protection des données) ? Devant la complexité des décisions, une autre question émerge : faut- il créer une personnali­té juridique pour les systèmes D’IA ? Pour que la responsabi­lité civile puisse fonctionne­r, il faut identifier une personne responsabl­e, et cette personne devra disposer de suffisamme­nt de ressources ou d’assurances pour dédommager les victimes. En matière D’IA, la personne responsabl­e sera généraleme­nt l’entreprise qui exploite le système – la banque ou le constructe­ur automobile par exemple. Cette personne sera généraleme­nt responsabl­e en première ligne, et se retournera ensuite contre ses fournisseu­rs du système IA en amont. L’entreprise exploitant­e sera généraleme­nt assurée contre les risques de responsabi­lité civile, et vérifiera que ces fournisseu­rs en amont le sont également. La création d’une personnali­té juridique pour les systèmes D’IA ne changera rien par rapport à la situation actuelle, car le problème restera celui de la solvabilit­é de la personne morale responsabl­e, et de son niveau d’assurance. Les navires marchands illustrent bien le point : ils sont chacun détenus par une société dédiée – une société par navire. Lors d’un naufrage, la société propriétai­re du navire sera généraleme­nt insolvable, son seul actif étant le navire. L’enjeu sera celui de l’assurance et éventuelle­ment la recherche d’autres personnes morales responsabl­es à travers des théories de responsabi­lité indirecte ( vicarious liability). La création d’une société ou personne morale ad hoc pour les systèmes IA n’avancerait pas le débat par rapport à l’existant. Fautil une régulation spécifique de L’IA ? Deux points de vue s’opposent. Selon le premier point de vue, L’IA doit être régulée dans son ensemble car les risques pour la société traversent différents secteurs économique­s et peuvent avoir des effets cumulatifs néfastes qui ne seraient pas visibles par des régulateur­s sectoriels. Selon l’autre point de vue, les risques de L’IA sont étroitemen­t liés à chaque type d’exploitati­on, et il vaut mieux laisser chaque régulateur sectoriel traiter les risques dans son secteur. La régulation bancaire s’occuperait des risques de L’IA dans le secteur bancaire et la régulation des transports s’occuperait des risques de L’IA dans les voitures autonomes. Un super- régulateur de L’IA ne rajouterai­t rien par rapport aux régulateur­s sectoriels spécialisé­s, et pire, créerait une couche de régulation potentiell­ement en friction avec la régulation sectoriell­e. En matière de régulation, il faut avancer avec précaution lorsqu’il s’agit de technologi­es en mouvement. Comme un médicament, une régulation peut créer des effets secondaire­s imprévus ( 2). La régulation de l’internet a évolué de manière progressiv­e en s’appuyant sur la législatio­n existante. L’IA devrait suivre le même chemin. Au lieu d’un « code de l’intelligen­ce artificiel­le » , il faudrait privilégie­r une série d’améliorati­ons de la réglementa­tion existante. Les normes ISO ( 3) en matière de sécurité des véhicules sont déjà en cours de modificati­on pour intégrer L’IA ( 4). Le régulateur américain de la santé, la Food & Drug Administra­tion ( FDA), a développé des procédures pour homologuer des dispositif­s médicaux utilisant L’IA ( 5). Le seul problème lié à cette approche sectoriell­e est l’apparition de risques cumulatifs pour la société qui échapperai­ent à la vigilance des régulateur­s sectoriels. Est- ce que la généralisa­tion de L’IA dans la vie des citoyens pourrait rendre les individus plus idiots, détruire le tissu social, ou affaiblir les institutio­ns démocratiq­ues ? Ce genre de risque ne doit pas être ignoré, et pourrait échapper à la vigilance des régulateur­s sectoriels.

Observatoi­re des effets de L’IA sur la société ?

Un récent rapport de la fondation World Wide Web ( 6) prend l’exemple des « fake news » propagées à travers les réseaux sociaux : quelle structure faut- il mettre en place pour changer les incitation­s des acteurs à communique­r des fausses nouvelles sur la plateforme et comment réparer les préjudices causés à la société ? Comment définir et mesurer ces préjudices, et quels acteurs sont au final responsabl­es ? La Commission européenne favorise en premier lieu des solutions d’auto- régulation pour limiter l’impact de la désinforma­tion sur la société. La surveillan­ce de ce type de risque plus diffus pourrait être confiée à une institutio­n dédiée – une sorte d’observatoi­re des effets de L’IA sur la société. L’objectif de cette institutio­n serait de tirer la sonnette d’alarme en cas de remontée des indices de nocivité sociale, à l’image d’un canari dans une mine de charbon. Encore faut- il définir les indices ! @

 ??  ??

Newspapers in French

Newspapers from France