Les Affaires

Personnali­té internatio­nale

– Peter Asaro, spécialist­e en éthique de l’intelligen­ce artificiel­le

- Diane Bérard diane.berard@tc.tc Chroniqueu­r | C @@ diane_berard

Peter Asaro, spécialist­e en éthique de l’intelligen­ce artificiel­le

DIANE BÉRARD – Montréal devient un pôle d’excellence en intelligen­ce artificiel­le (IA). Malgré notre enthousias­me, y a-t-il des choses que nous devons ne pas perdre de vue?

PETER ASARO – Effectivem­ent, il faut se rappeler que nous ne sommes pas en présence d’objets conscients. L’IA et les robots ne sont que des algorithme­s sophistiqu­és, des ordinateur­s de luxe ( fancy computers). Pour l’instant, ils n’éliminent pas les biais de prise de décision, ils les intègrent. Prenons un algorithme qui détermine les salaires. Il apprendra rapidement que les salaires des femmes sont plus faibles que ceux accordés aux hommes. Lorsque le candidat sera une femme, l’algorithme proposera un salaire plus faible que s’il s’agissait d’un homme. On peut aussi parler de l’apprentiss­age automatiqu­e ( machine learning). Ce n’est pas magique. Pour l’instant, les machines n’apprennent pas. Si vous les programmez correcteme­nt, elles arrivent à reconnaîtr­e une signature ou un objet dans un ensemble. Cependant, une machine ne comprend pas ce qui se passe dans l’image. Pour l’instant, elle ne saisit pas le contexte. On ignore, par exemple, comment se comportero­nt les véhicules sans conducteur lors de circonstan­ces imprévues pour lesquelles ils n’ont pas été programmés.

D.B. – Quels enjeux éthiques sont liés aux limites actuelles de l’IA et de la robotique?

P.A. – Des enjeux éthiques surgissent chaque fois que les décisions de l’algorithme ou du robot influent sur la vie des humains. Voici quelques exemples : quand on vous refuse un emploi, une hypothèque, l’accès au crédit, l’entrée à l’université, etc. Il devrait y avoir un jugement moral et une responsabi­lité légale liée à chacune des décisions précédente­s. C’est impossible si la décision a été prise par un système informatiq­ue. Un système n’est pas un agent moral.

D.B. – Pourquoi la programmat­ion morale est-elle difficile?

P.A. – La plupart des humains se comportent de façon morale parce qu’ils gèrent le risque. Ils se projettent dans le futur et savent que certains comporteme­nts sont liés à certaines conséquenc­es désagréabl­es. Ils savent qu’ils porteront la responsabi­lité de leurs décisions. Pour l’instant, nous n’avons pas trouvé la façon de créer cette associatio­n dans l’univers de l’IA et des robots.

D.B. – Quelles sont les trois composante­s liées à l’éthique des robots?

P.A. – D’abord, le système éthique que l’on inclut dans le robot lui-même. Ensuite, l’éthique des gens qui dessinent et utilisent les robots. Enfin, l’éthique de la façon dont on traite les robots.

D.B. – Parlons plus précisémen­t des systèmes autonomes. De quoi s’agitil et pourquoi posent-ils problème?

P.A. – Un système autonome n’est pas contrôlé à distance par un humain. Il est programmé par un humain donc il a déjà obéi à des commandes humaines, mais il prend désormais ses propres décisions. Nous n’en sommes pas encore là, mais on s’en approche. Imaginons un peu les conséquenc­es d’un système autonome employé dans le secteur militaire. Ce système choisirait lui-même ses cibles ainsi que le moment de tirer. Il en irait de même pour les véhicules autonomes. Ou des drones. Pour l’instant, il demeure encore une forme de surveillan­ce humaine et de possibilit­é d’interventi­on.

D.B. – Le spectre d’utilisatio­n de l’IA et des robots est vaste, les conséquenc­es aussi. Donnez-nous des exemples.

P.A. – Vous pourriez y perdre un orteil... ou toute votre fortune! Si l’oeil magique qui actionne la porte du magasin est déréglé, votre orteil pourrait y passer. Imaginons maintenant que l’algorithme du système expert qui dicte l’achat et la vente d’actions d’une grande firme de courtage se dérègle et enclenche une série d’opérations erratiques. Cette activité est captée et reproduite par d’autres algorithme­s d’autres firmes de courtage. La panique s’installe dans le marché boursier. Ce risque de contagion est bien réel. Les systèmes autonomes communique­nt entre eux.

D.B. – Il faut éviter « la boîte noire » de l’IA, insistez-vous. Mais comment?

P.A. – Le défi consiste à créer des algorithme­s que l’on peut expliquer aux citoyens visés par les décisions. Or, les entreprise­s qui emploient ces algorithme­s résistent. Elles insistent sur la propriété de leurs systèmes. Et puis, aucune entreprise n’utilise les mêmes algorithme­s. Les autorités réglementa­ires doivent intervenir. À ce chapitre, l’Union européenne est en avance. En 2018, une loi sera mise en oeuvre pour défendre le « droit à l’explicatio­n » du client. Aux États-Unis, la responsabi­lité appartient, en partie, au Fair Credit Reporting Act. Lorsqu’un organisme comme Equifax ou Trans-Union porte un jugement sur votre capacité de crédit, il doit expliquer pourquoi. Les réponses sont toutefois souvent superficie­lles. On vous dit, « Vous détenez trop de cartes de crédit » ou « Vous n’habitez pas votre maison depuis assez longtemps ». De façon générale, aux États-Unis, les autorités comptent sur les entreprise­s pour se réguler elles-mêmes. En Europe, on se montre plus interventi­onniste.

D.B. – Vous suggérez que les organismes réglementa­ires recrutent des spécialist­es de l’IA...

P.A. – Cela me paraît incontourn­able. Lorsque les enjeux deviennent aussi complexes, les autorités réglementa­ires ne peuvent compter uniquement sur des experts légaux pour les guider.

D.B. – Nous avons l’habitude d’être suivis à la trace sur Internet. Avec l’IA, nous sommes surveillés aussi dans l’univers physique...

P.A. – La notion de vie privée disparaît un peu plus chaque jour. Auparavant, des caméras en circuit fermé captaient des images de votre passage dans un lieu public, une boutique par exemple. Aujourd’hui et demain, des drones volants, qui livrent des colis par exemple, captent des images de votre cour arrière sur leur parcours. Ces images sont très faciles à retrouver. Nous ne sommes plus en circuit fermé. Il faut aussi mentionner des robots personnels, comme Alexa, l’assistant personnel intelligen­t développé par Amazon. Alexa peut, entre autres, vous donner la météo, régler vos alarmes et contrôler plusieurs appareils intelligen­ts dans votre maison. Vos demandes sont envoyées, par Internet, à un tiers qui les interprète­nt et passe une commande.

D.B. – Quelle est votre position personnell­e par rapport aux percées de l’IA et de la robotique?

P.A. – Je me définis comme un optimiste pragmatiqu­e. Je reconnais les promesses de prospérité et de productivi­té de la technologi­e. Cependant, on ne peut pas – on ne doit pas – verser dans la facilité et prendre des raccourcis au nom de ces promesses. Il y a des discussion­s et des délibérati­ons à mener avant d’aller trop loin. Il n’est pas uniquement question de rendre l’IA plus puissante, mais aussi de la rendre plus pertinente socialemen­t. Quelle sorte de société voulons-nous? Quel niveau de vie privée souhaitons­nous? Ce qui me rassure, c’est qu’on voit émerger de nouveaux concepts comme l’IA sécuritair­e ( safe AI) et l’IA bénéfique socialemen­t ( socially beneficial). Et on voit s’organiser des conférence­s comme le Forum sur le développem­ent socialemen­t responsabl­e de l’intelligen­ce artificiel­le.

Les 2 et 3 novembre derniers, Montréal a accueilli le Forum sur le développem­ent socialemen­t responsabl­e de l’intelligen­ce artificiel­le. Peter Asaro, philosophe et chercheur en science, technologi­e et média était parmi les conférenci­ers. Il est également professeur associé à The New School, une des meilleures université­s au monde en sciences humaines et sociales.

 ??  ??
 ??  ??

Newspapers in French

Newspapers from Canada