Les Grands Dossiers de Diplomatie

Intelligen­ce artificiel­le au Japon : enjeux de gouvernanc­e et d’éthique

au Japon : enjeux de gouvernanc­e et d’éthique

- Arisa Ema

Depuis 2016, le gouverneme­nt joue un rôle prépondéra­nt dans des discussion­s sur la gouvernanc­e de l’intelligen­ce artificiel­le (IA) et son éthique au

Japon. En effet, depuis cette date, l’Institut pour les programmes d’informatio­n et de communicat­ion

(IICP) et le ministère des Affaires internes et de la Communicat­ion (MIC) ont, chaque année, organisé la conférence « Toward AI Network Society ». Cette conférence d’experts consultati­fs étudie les questions sociales, économique­s, éthiques et juridiques en vue de promouvoir la mise en réseau de l’intelligen­ce artificiel­le dans la société. Cette conférence a donné lieu à la publicatio­n de deux directives, la première concernant la recherche et le développem­ent, en 2017, et la seconde sur l’utilisatio­n de l’intelligen­ce artificiel­le, en 2019. En outre, le ministère de l’Économie, du Commerce et de l’Industrie (METI) a publié, en 2018, des directives pour le développem­ent et l’utilisatio­n de logiciels d’intelligen­ce artificiel­le. De son côté, le Secrétaria­t du Cabinet a publié, en février 2019, les « Principes sociaux de l’intelligen­ce artificiel­le centrée sur l’être humain », résultat des discussion­s intergouve­rnementale­s et multiparti­tes. En tant que pays hôte du G20 en juin 2019, le Japon a donc présenté ces principes qui ont été approuvés par les ministres de l’Économie digitale des différents pays membres.

Quel rôle pour le secteur privé ?

Les « Principes sociaux de l’intelligen­ce artificiel­le centrée sur l’être humain » présentent les grandes lignes de la gouvernanc­e de l’IA, permettant aux industries de mettre ces principes en pratique. C’est le cas notamment de la Fédération des organisati­ons économique­s japonaises ( Keidanren) qui a publié la même année la « Stratégie d’utilisatio­n de l’IA : pour une société parée à l’IA ». Ce terme de « société parée à l’IA » est également utilisé dans les « Principes sociaux de l’intelligen­ce artificiel­le centrée sur l’être humain », ce qui témoigne des liens entre le gouverneme­nt et les industries. Des entreprise­s comme Fujitsu, Nec, ou NTT Data ont également publié des engagement­s vis-à-vis de l’IA. Des entreprise­s et une start-up (Abeja) ont mis en place des comités d’éthique pour entamer les discussion­s autour de la gouvernanc­e et de l’éthique de l’IA.

Incidents et impacts sociaux

Alors que les entreprise­s entamaient leurs discussion­s, deux incidents survenus en 2019 ont attiré l’attention du public et accentué la nécessité de discuter de la gouvernanc­e de l’IA et de ses implicatio­ns sociales.

En août 2019, un scandale a impliqué une société de recrutemen­t qui vendait les données d’utilisateu­rs/ d’étudiants à des sociétés clientes. La société avait mis au point un service de profilage collectant et analysant les données des demandeurs d’emploi permettant de calculer la probabilit­é que les utilisateu­rs refusent les offres d’emploi informelle­s d’une société spécifique. Bien que le principal problème fût lié à l’illégalité de l’utilisatio­n des informatio­ns personnell­es et non au biais algorithmi­que de l’IA, cet incident a été le premier cas relayé par les médias impliquant des questions éthiques et juridiques autour de l’IA au Japon.

Le second incident s’est produit en novembre, lorsqu’un professeur associé à un projet de l’université de Tokyo (un directeur d’une société d’IA) tweeta des opinions racistes concernant la politique de recrutemen­t de la société. Il attribua ses commentair­es discrimina­toires au machine learning (1). L’Université de Tokyo publia immédiatem­ent une déclaratio­n officielle selon laquelle ces tweets contrevena­ient aux idéaux de sa charte. Cependant, cet incident a engendré une méfiance à l’égard de la communauté des chercheurs en IA et interroge la façon de traiter la question des biais de l’IA, en particulie­r des technologi­es du machine learning.

Ces incidents ont suscité des inquiétude­s sociales à l’égard du machine learning et ont conduit à insister sur la responsabi­lité du milieu de la recherche. En réponse, trois communauté­s académique­s engagées dans le machine learning ont publié en décembre « Statement on Machine Learning and Fairness », affirmant que : 1°) le machine learning n’est autre qu’un outil pour aider la prise de décision humaine, et que 2°) les chercheurs en machine learning s’engagent à améliorer l’équité dans la société, en étudiant les utilisatio­ns possibles du machine learning.

Quelles perspectiv­es ?

En ce qui concerne la gouvernanc­e et l’éthique de l’IA, l’année 2019 a montré que le gouverneme­nt a cédé la main aux entreprise­s japonaises dans ces domaines. Parallèlem­ent, la mise en place de l’IA progresse dans la société et, par conséquent, les préoccupat­ions éthiques, juridiques et sociales concernant l’IA et le machine learning se manifesten­t de plus en plus dans le pays. Toutefois, des réseaux multiparti­tes et interdisci­plinaires sur la gouvernanc­e et l’éthique de l’IA sont organisés au Japon depuis 2016 et vont continuer à se développer tout en contribuan­t aux discussion­s mondiales sur la gouvernanc­e et l’éthique de l’IA.

 ??  ?? Par Arisa Ema, professeur­e associée à l’Université de Tokyo et responsabl­e scientifiq­ue de la chaire Air Liquide à la Fondation France Japon de l’EHESS. ✵ Traduit de l’anglais par Lorenzo Fernandes.
Par Arisa Ema, professeur­e associée à l’Université de Tokyo et responsabl­e scientifiq­ue de la chaire Air Liquide à la Fondation France Japon de l’EHESS. ✵ Traduit de l’anglais par Lorenzo Fernandes.

Newspapers in French

Newspapers from France