Les Grands Dossiers de Diplomatie
Intelligence artificielle au Japon : enjeux de gouvernance et d’éthique
au Japon : enjeux de gouvernance et d’éthique
Depuis 2016, le gouvernement joue un rôle prépondérant dans des discussions sur la gouvernance de l’intelligence artificielle (IA) et son éthique au
Japon. En effet, depuis cette date, l’Institut pour les programmes d’information et de communication
(IICP) et le ministère des Affaires internes et de la Communication (MIC) ont, chaque année, organisé la conférence « Toward AI Network Society ». Cette conférence d’experts consultatifs étudie les questions sociales, économiques, éthiques et juridiques en vue de promouvoir la mise en réseau de l’intelligence artificielle dans la société. Cette conférence a donné lieu à la publication de deux directives, la première concernant la recherche et le développement, en 2017, et la seconde sur l’utilisation de l’intelligence artificielle, en 2019. En outre, le ministère de l’Économie, du Commerce et de l’Industrie (METI) a publié, en 2018, des directives pour le développement et l’utilisation de logiciels d’intelligence artificielle. De son côté, le Secrétariat du Cabinet a publié, en février 2019, les « Principes sociaux de l’intelligence artificielle centrée sur l’être humain », résultat des discussions intergouvernementales et multipartites. En tant que pays hôte du G20 en juin 2019, le Japon a donc présenté ces principes qui ont été approuvés par les ministres de l’Économie digitale des différents pays membres.
Quel rôle pour le secteur privé ?
Les « Principes sociaux de l’intelligence artificielle centrée sur l’être humain » présentent les grandes lignes de la gouvernance de l’IA, permettant aux industries de mettre ces principes en pratique. C’est le cas notamment de la Fédération des organisations économiques japonaises ( Keidanren) qui a publié la même année la « Stratégie d’utilisation de l’IA : pour une société parée à l’IA ». Ce terme de « société parée à l’IA » est également utilisé dans les « Principes sociaux de l’intelligence artificielle centrée sur l’être humain », ce qui témoigne des liens entre le gouvernement et les industries. Des entreprises comme Fujitsu, Nec, ou NTT Data ont également publié des engagements vis-à-vis de l’IA. Des entreprises et une start-up (Abeja) ont mis en place des comités d’éthique pour entamer les discussions autour de la gouvernance et de l’éthique de l’IA.
Incidents et impacts sociaux
Alors que les entreprises entamaient leurs discussions, deux incidents survenus en 2019 ont attiré l’attention du public et accentué la nécessité de discuter de la gouvernance de l’IA et de ses implications sociales.
En août 2019, un scandale a impliqué une société de recrutement qui vendait les données d’utilisateurs/ d’étudiants à des sociétés clientes. La société avait mis au point un service de profilage collectant et analysant les données des demandeurs d’emploi permettant de calculer la probabilité que les utilisateurs refusent les offres d’emploi informelles d’une société spécifique. Bien que le principal problème fût lié à l’illégalité de l’utilisation des informations personnelles et non au biais algorithmique de l’IA, cet incident a été le premier cas relayé par les médias impliquant des questions éthiques et juridiques autour de l’IA au Japon.
Le second incident s’est produit en novembre, lorsqu’un professeur associé à un projet de l’université de Tokyo (un directeur d’une société d’IA) tweeta des opinions racistes concernant la politique de recrutement de la société. Il attribua ses commentaires discriminatoires au machine learning (1). L’Université de Tokyo publia immédiatement une déclaration officielle selon laquelle ces tweets contrevenaient aux idéaux de sa charte. Cependant, cet incident a engendré une méfiance à l’égard de la communauté des chercheurs en IA et interroge la façon de traiter la question des biais de l’IA, en particulier des technologies du machine learning.
Ces incidents ont suscité des inquiétudes sociales à l’égard du machine learning et ont conduit à insister sur la responsabilité du milieu de la recherche. En réponse, trois communautés académiques engagées dans le machine learning ont publié en décembre « Statement on Machine Learning and Fairness », affirmant que : 1°) le machine learning n’est autre qu’un outil pour aider la prise de décision humaine, et que 2°) les chercheurs en machine learning s’engagent à améliorer l’équité dans la société, en étudiant les utilisations possibles du machine learning.
Quelles perspectives ?
En ce qui concerne la gouvernance et l’éthique de l’IA, l’année 2019 a montré que le gouvernement a cédé la main aux entreprises japonaises dans ces domaines. Parallèlement, la mise en place de l’IA progresse dans la société et, par conséquent, les préoccupations éthiques, juridiques et sociales concernant l’IA et le machine learning se manifestent de plus en plus dans le pays. Toutefois, des réseaux multipartites et interdisciplinaires sur la gouvernance et l’éthique de l’IA sont organisés au Japon depuis 2016 et vont continuer à se développer tout en contribuant aux discussions mondiales sur la gouvernance et l’éthique de l’IA.