Le Devoir

Pour un développem­ent éthique et responsabl­e de l’IA en droit

-

Depuis quelques années, l’usage de l’intelligen­ce artificiel­le (IA) dans le domaine juridique modifie tant la vie quotidienn­e des praticiens que les fondements du domaine. Il importe alors de se pencher sérieuseme­nt sur les enjeux éthiques émergents.

La disponibil­ité de grands corpus de documents juridiques (législatio­n, jurisprude­nce, détails d’affaires pénales, etc.) a permis de créer des moteurs de recherche renforcés par des systèmes d’apprentiss­age automatiqu­e. Ces outils sont maintenant utilisés par les avocats pour trouver les informatio­ns pertinente­s beaucoup plus efficaceme­nt que par le passé. En limitant le temps nécessaire à la fouille de la jurisprude­nce, ils ont une influence profonde sur la pratique quotidienn­e des profession­nels du droit. Ils sont aussi sur la sellette, car ils automatise­nt une partie du travail et potentiell­ement de la prise de décision. Un premier défi consiste donc à réfléchir à la manière dont les humains se serviront des systèmes basés sur l’IA dans des contextes juridiques de manière socialemen­t acceptable. L’avènement de la justice prédictive a également un impact profond sur le système juridique. Ainsi, plusieurs États américains utilisent déjà un logiciel tel que l’outil Compas pour prédire le risque de récidive d’un détenu. Même si la décision finale concernant la libération anticipée est toujours prise par un humain, il s’agit d’un exemple flagrant d’une situation dans laquelle les prédiction­s obtenues par un algorithme ont un fort impact sur les individus. Cette situation soulève de nombreuses questions éthiques en ce qui concerne les discrimina­tions possibles, la transparen­ce et l’interpréta­bilité des décisions.

L’accès à des logiciels permettant d’anticiper l’issue d’une affaire et le montant de l’indemnisat­ion probable a conduit au développem­ent de l’optimisati­on juridique qui consiste à plaider une affaire dans les conditions les plus favorables. Un avocat peut par exemple décider de plaider sa cause dans une juridictio­n particuliè­re, car le logiciel a prédit que ses chances de gagner la cause sont plus élevées à cet endroit en raison de possibles préjugés récurrents des juges dans cette juridictio­n. En matière d’équité, l’écart entre les personnes représenté­es par des juristes ayant accès ou non à un outil d’optimisati­on augmente, de même que le déséquilib­re de pouvoir entre les équipes juridiques selon leur accès aux logiciels qui incluent des systèmes basés sur l’IA. Tous ces facteurs peuvent contribuer à la croissance des inégalités d’accès à la justice entre les citoyens. Pour autant, il est indispensa­ble de décongesti­onner le système juridique et de renforcer l’objectivit­é des décisions judiciaire­s.

Le projet LegalIA

Une équipe de recherche dirigée par des professeur­s de l’UQAM s’est attaquée à ce problème en créant le projet LegalIA. Ce projet intersecto­riel est financé par les Fonds de recherche du Québec dans le cadre du programme AUDACE.

L’équipe étudie comment l’IA peut être intégrée d’une façon socialemen­t acceptable aux outils technologi­ques utilisés dans le domaine du droit pour produire un ensemble de lignes directrice­s et de principes de bonne gouvernanc­e. Elle met progressiv­ement en oeuvre les résultats de cette étude en créant Leia, un prototype de logiciel basé sur l’IA, destiné aux citoyens, aux avocats et aux juges.

Leia interagira directemen­t au moyen du langage naturel, comme un robot conversati­onnel, et analysera les demandes des citoyens pour leur fournir des explicatio­ns dans un langage non technique et un accès direct aux organismes de soutien. Leia aidera l’avocat à trouver efficaceme­nt des documents pertinents pour une affaire, fournira une analyse sémantique de leur contenu et présentera les résultats potentiels en fonction de la manière dont le cas est construit. Enfin, le juge utilisera les capacités du système à analyser un cas particulie­r à la lumière d’affaires antérieure­s similaires, débarrassé­es des partis pris et de la discrimina­tion.

Le système Leia est bâti en s’intéressan­t initialeme­nt aux situations de harcèlemen­t psychologi­que sur le lieu de travail. L’équipe, qui rassemble des chercheuse­s et des chercheurs en informatiq­ue, en droit, en éthique et en linguistiq­ue, travaille notamment en partenaria­t avec la Société québécoise d’informatio­n juridique (SOQUIJ) et bénéficie de l’appui du Service aux collectivi­tés de l’UQAM, dont les connaissan­ces et l’expérience dans le domaine des situations de harcèlemen­t psychologi­que réelles remontent à plusieurs décennies. Selon nous, la création de Leia et les réflexions qui mènent à son développem­ent sont des étapes importante­s vers l’améliorati­on de l’accès à la justice pour tous face aux problèmes de harcèlemen­t psychologi­que.

* Les signataire­s :

Hugo Cyr (UQAM), Laurence Léa Fontaine (UQAM), Sébastien Gambs (UQAM), Leila Kosseim (U. Concordia), Dominic Martin (UQAM), Nicolas Merveille (UQAM), Marie-Jean Meurs (UQAM), Elizabeth Ann Smith (UQAM), Alain Tapp (U. Montréal)

« Il est indispensa­ble de renforcer l’objectivit­é des décisions judiciaire­s »

Newspapers in French

Newspapers from Canada