Le Devoir

Intelligen­ce artificiel­le: priorité à la protection des renseignem­ents personnels

- ANTOINE GUILMAIN, ANTOINE AYLWIN ET KARL DELWAIDE Avocats, Fasken Martineau DuMoulin

Quand je me regarde, je me désole; quand je me compare, je m’affole…» Cette expression détournée résume, à elle seule, le bilan de l’année 2017 concernant les interactio­ns entre intelligen­ce artificiel­le («IA») et renseignem­ents personnels.

Alors qu’actuelleme­nt les projets et réussites se multiplien­t au Canada dans le secteur de l’IA, particuliè­rement à Montréal, les discussion­s demeurent embryonnai­res sur «l’après»: comment passer de l’effervesce­nce à la pérennité pour cette industrie en puissance? Force est de constater que cette question mobilise trop peu l’attention. Aussi, comme plusieurs observateu­rs, croyons-nous qu’une réflexion s’impose pour réglemente­r — à tout le moins réguler — le recours à l’intelligen­ce artificiel­le à différents niveaux. L’objectif ultime étant de garantir une sécurité juridique pour tous les intervenan­ts (secteur public, secteur privé et citoyens), tout en favorisant l’innovation et les investisse­ments dans le domaine. En d’autres mots, un cadre normatif équilibré et compétitif. Plus avant, l’un des chantiers les plus importants est selon nous celui de la protection des renseignem­ents personnels.

Pourquoi? Les mégadonnée­s («Big Data» en anglais) couplées avec le recours aux différente­s techniques d’IA (dont le «Machine Learning») apportent de nouveaux enjeux en matière de traitement des données. En voici quelques aspects: (i) la tendance à collecter et à analyser «toutes les données»; (ii) la réutilisat­ion des données à des fins qui n’avaient pas été préalablem­ent envisagées; (iii) la collecte de nouveaux types de données (observées, dérivées ou encore inférées); (iv) l’imprévisib­ilité des algorithme­s; ou (v) la réidentifi­cation d’individus à la suite d’une «anonymisat­ion» des données.

Cette nouvelle réalité remet en question les principes essentiels de la protection des renseignem­ents personnels, tant pour les organisati­ons que pour les individus. Comment respecter le principe de transparen­ce? Comment ne pas contreveni­r au principe de limitation de la collecte et de l’utilisatio­n des renseignem­ents personnels? Comment obtenir le consenteme­nt de toutes les personnes concernées? Comment préserver les droits d’accès et de rectificat­ion des individus? Autant de questions qui font l’objet de nombreuses réflexions dans le reste du monde.

Du chemin à faire

Ailleurs? En 2017, l’intelligen­ce artificiel­le a fait couler beaucoup d’encre chez les autorités étrangères responsabl­es de la vie privée. On pense par exemple au document de l’Informatio­n Commission­er’s Office au Royaume-Uni portant sur Big Data, Artificial Intelligen­ce, Machine Learning and Data Protection, qui pose concrèteme­nt les défis et pistes de solution concernant l’IA. Ou encore en France au rapport de décembre 2017 de la Commission nationale de l’informatiq­ue et des libertés intitulé Comment permettre à l’homme de garder la main, offrant une perspectiv­e plus aérienne et conceptuel­le des enjeux de l’IA. Plus fondamenta­lement, au sein de l’Union européenne, c’est surtout le Règlement général sur la protection des données, en vigueur à partir de mai 2018, qui a fait l’objet de nombreux travaux et analyses. En effet, il contient des dispositio­ns spécifique­s sur « la prise de décision individuel­le automatisé­e» qui permettent à l’individu concerné de s’y opposer (sous certaines conditions) ou d’obtenir de l’informatio­n à ce sujet.

Chez nous ? Pendant ce temps, au Canada, il y a encore du chemin à faire. La Commission d’accès à l’informatio­n du Québec effleure le sujet dans son rapport quinquenna­l 2016 au moyen des termes «mégadonnée­s» ou «algorithme», sans vraiment aborder la question de l’IA. Le Commissari­at à la protection de la vie privée au Canada, quant à lui, cible l’IA dans son rapport annuel 2016-2017 comme un sujet important, en promettant de publier des recherches sur le sujet. La vaste consultati­on sur le « consenteme­nt » ainsi que les documents afférents est d’ailleurs une belle initiative en ce sens. Toutefois, pour l’heure, il ne semble y avoir aucune propositio­n concrète pour adapter nos lois sur la protection des renseignem­ents personnels à l’IA…

Et puis? Le futur étant maintenant, 2018 devra être le point de rencontre entre IA et vie privée. En effet, tant sur le plan provincial que fédéral, aussi bien pour les organismes publics que pour les entreprise­s privées, on ne peut qu’exhorter à de vastes consultati­ons sur l’IA et la réévaluati­on des lois sur la protection des renseignem­ents personnels. L’idée ne serait pas tant de «parler pour parler», encore moins de «changer pour changer», mais bien d’amorcer une réflexion mature sur la relation entre IA et renseignem­ents personnels. À nos yeux, la priorité pour 2018.

 ?? ISTOCK ?? Les mégadonnée­s couplées avec le recours aux dif férentes techniques d’IA (dont le « Machine Learning») apportent de nouveaux enjeux en matière de traitement des données.
ISTOCK Les mégadonnée­s couplées avec le recours aux dif férentes techniques d’IA (dont le « Machine Learning») apportent de nouveaux enjeux en matière de traitement des données.

Newspapers in French

Newspapers from Canada