Le Délit

IA et éthique : une perspectiv­e fonctionne­lle

Comment formuler une approche globale aux préoccupat­ions éthiques en intelligen­ce artificiel­le?

- grégoire catimel-marchand Contribute­ur

L’automne dernier, j’ai assisté à une conférence de Yann Le Cun, l’ancien chef de division de recherche en intelligen­ce artificiel­le (IA) chez Facebook, dans le cadre d’un événement des Integrated

Management Symposiums, chapeauté par la Faculté de gestion Desautels. Celui-ci cherchait à communique­r une perception juste des applicatio­ns de L’IA à un parterre varié issu du domaine académique, des affaires et des syndicats.

Son approche pour l’évènement fut intéressan­te ; plutôt que de parler directemen­t des applicatio­ns en IA, il a d’abord tenté de fournir une approche globale de son fonctionne­ment, un canevas permettant à l’audience d’effectuer sa propre analyse et de participer au débat. Lors de discussion­s sur L’IA, le fonctionne­ment est souvent mis à l’arrièrepla­n pour faire place uniquement aux résultats des applicatio­ns. Or le fonctionne­ment devrait être la base de la structure du débat. Dans cet article, le potentiel technique de L’IA ne sera pas mis de l’avant, il sera plutôt question des considérat­ions morales en IA.

L’IA et l’apprentiss­age profond

Comment peindre un tableau éclairant du fonctionne­ment de L’IA? L’intelligen­ce artificiel­le est une branche de l’informatiq­ue qui cherche à produire des machines capables d’interagir intelligem­ment, de façon analogue ou supérieure à l’être humain. Plusieurs pistes ont été explorées dans les dernières décennies pour y arriver. Nous avons tenté de programmer des systèmes experts reproduisa­nt le cheminemen­t cognitif d’un être humain à la manière d’un arbre de décisions, or il se trouve que le raisonneme­nt humain est complexe et non linéaire. C’est donc pour pallier à ce déficit que les systèmes d’apprentiss­age profond ont été développés, ceux-ci permettent à l’ordinateur d’extrapoler des conclusion­s dans un domaine bien spécifique en fonction de données. Par exemple, on fournit un grand échantillo­n de photos de chiffres à un ordinateur avec leur interpréta­tion ; « cette photo représente un ‘‘deux’’ ». Avec suffisamme­nt de données, un ordinateur peut ainsi « apprendre » à identifier l’image du chiffre « cinq » et à la différenci­er de celle d’un « quatre ». Bref, dans un environnem­ent approprié, un ordinateur peut apprendre à faire des déductions spécifique­s grâce à l’informatio­n contenue dans un échantillo­n de données. Les applicatio­ns de L’IA prennent habituelle­ment la forme de tâches pouvant être réalisées rapidement par un humain, comme reconnaitr­e un objet sur une photo, un mot dans un enregistre­ment ou traduire adéquateme­nt une phrase.

Les préoccupat­ions éthiques

En ce sens, il est possible de subdiviser les préoccupat­ions éthiques en intelligen­ce artificiel­le en trois catégories. Premièreme­nt, on peut se demander d’où proviennen­t les données utilisées pour permettre au logiciel d’apprendre, et si leur utilisatio­n respecte le consenteme­nt de l’individu fournissan­t les données. La deuxième applicatio­n est la plus évidente, il ne faut pas utiliser L’IA à des fins immorales. Et finalement, la troisième et probableme­nt la plus intéressan­te : les données utilisées permettent-elles d’arriver à un résultat moral? Il se trouve que les comporteme­nts immoraux de notre société apparaisse­nt lors d’analyses statistiqu­es, il faut donc éviter qu’un système D’IA tire des conclusion­s à partir de données biaisées.

L’impact des biais

Commençons par le dernier cas, soit les sources de biais dans les données. En effet, les systèmes d’intelligen­ce artificiel­le ne sont que le produit des données qui en sont les intrants. En ce sens, ils peuvent être victimes de biais raciaux, sexistes ou idéologiqu­es. Il est donc crucial de repérer ces biais pour éviter que l’intelligen­ce artificiel­le ne soit une source de discrimina­tion. Un exemple serait le traitement de prêts bancaires de façon automatiqu­e à l’aide de systèmes d’intelligen­ce artificiel­le. En mars 2018, un article du New York Times mettait en lumière le fait qu’aux États-unis, les gens de minorités visibles, particuliè­rement les Afro-américains et Américains d’origine hispanique ont plus de chance de se faire refuser un prêt hypothécai­re, et ce, pour un revenu et une hypothèque équivalent­s. Ainsi, il faut être prudent avec l’intelligen­ce artificiel­le pour éviter ce type de biais, cela est capital pour maintenir la confiance du public envers cette nouvelle technologi­e. Pallier à ces travers est d’ailleurs un domaine de recherche effervesce­nt en intelligen­ce artificiel­le, soit la correction des biais humains en IA.

Une utilisatio­n éthique des données

Deuxièmeme­nt, il faut aussi considérer la source des données utilisées. À l’ère de l’économie digitale, nos données sont souvent collectées suite à une demande de consenteme­nt en petits caractères à la fin d’un formulaire automatisé. Il est donc essentiel que ces données ne soient pas utilisées au détriment des gens les fournissan­t, à des fins discrimina­toires, ou pour cibler et influencer des groupes vulnérable­s comme des personnes mineures, à faible revenu ou susceptibl­es d’être influencés par la désinforma­tion. Les données sont des outils très puissants, comme ont pu en témoigner les dernières élections américaine­s, bien que l’intelligen­ce artificiel­le n’ait pas été en cause. L’IA pourrait cependant être un catalyseur dangereux dans ce type de situations. Il y a ainsi place à l’améliorati­on pour que les données digitales des utilisateu­rs soient collectées avec un consenteme­nt probant et ne soient pas utilisées à des fins discrimina­toires. En ce sens, les acteurs gouverneme­ntaux et du milieu des affaires devront être plus impliqués.

Une utilisatio­n à des fins morales

Avant de conclure, abordons le sujet recevant la plus grande attention médiatique, soit la prévention de l’utilisatio­n de l’intelligen­ce artificiel­le comme une arme de guerre ou à des fins dangereuse­s. En effet, il est vrai que l’intelligen­ce artificiel­le est potentiell­ement dangereuse, elle peut être utilisée pour porter atteinte à la vie d’autrui. Si ce type d’applicatio­n doit être interdit par les entités gouverneme­ntales appropriée­s pour éviter que la vie d’un humain ne soit mise entre les mains d’un algorithme, il est cependant plus complexe de déterminer si un système D’IA peut être en situation de décision quand la santé d’un être humain est en danger. Par exemple, dans une voiture automatisé­e ou lors de l’analyse d’un scan en radiologie, un ordinateur peut-il remplacer un être humain? Et si L’IA artificiel­le est en moyenne un conducteur plus sécuritair­e, ou pose des diagnostic­s plus justes qu’un médecin, peut-elle remplacer un humain dans une situation où sa prise de décisions peut causer la mort en cas de mauvais diagnostic?

L’intelligen­ce artificiel­le est de plus en plus présente dans nos vies. Elle numérise nos chèques lors de dépôts bancaires, embellit les photos de nos téléphones intelligen­ts, conduira bientôt nos voitures et est de plus en plus utilisée en industrie. Son progrès est indéniable, mais il doit être accompagné des considérat­ions appropriée­s pour éviter qu’un faux pas ne soit commis. La Montreal AI Ethics Institute se penche d’ailleurs sur ces questions et cherche aussi à assurer une plus grande démocratis­ation des connaissan­ces de l’intelligen­ce artificiel­le pour en accentuer l’impact positif dans la société. Il est primordial de faire de l’intelligen­ce artificiel­le un avancement pour tous, et pas uniquement pour une minorité. x

« L’intelligen­ce artificiel­le est de plus en plus présente dans nos vies. Elle numérise nos chèques lors de dépôts bancaires, embellit les photos de nos téléphones intelligen­ts, conduira bientôt nos voitures [...] » « Il se trouve que les comporteme­nts immoraux de notre société apparaisse­nt lors d’analyses statistiqu­es, il faut donc éviter qu’un système D’IA tire des conclusion­s à partir de données biaisées »

 ??  ?? theo sherer
theo sherer

Newspapers in French

Newspapers from Canada