Le Devoir

Les robots conversati­onnels, entre enthousias­me et méfiance

- CAMILLE FEIREISEN

Les robots conversati­onnels nourris par l’intelligen­ce artificiel­le (IA) arrivent lentement mais sûrement dans le monde du travail, soulevant son lot d’inquiétude­s et de questions. Plusieurs experts s’entendent pour dire que s’il ne faut pas s’attendre à un chômage massif des employés, il sera toutefois nécessaire de mettre en place progressiv­ement des règles pour atténuer les effets que pourrait avoir l’IA sur leurs conditions de travail.

« On n’en est pas à une substituti­on complète [des employés], mais cela va être possible, de considérer remplacer les gens pour une partie de leurs travaux. Ça va donc occasionne­r des modificati­ons importante­s dans le monde du travail et dans la réalisatio­n de certaines tâches », estime Frédérick Bruneault, professeur de philosophi­e au collège André-Laurendeau. Sa collègue Andréane Sabourin Laflamme est professeur­e de philosophi­e et d’éthique de l’intelligen­ce artificiel­le et chercheuse à l’Observatoi­re internatio­nal sur les impacts sociétaux de l’IA et du numérique. Elle explique que les effets des robots conversati­onnels vont se faire à « géométrie variable ».

Les premiers métiers touchés seront ceux de la bureautiqu­e et du service à la clientèle, qui « sont des emplois occupés majoritair­ement par des femmes et des minorités visibles », souligne-t-elle. Elle ajoute toutefois que ces suppressio­ns de postes pourraient « aussi entraîner la création de nouvelles formes de profession­s ».

Selon le professeur d’éthique au Départemen­t d’organisati­on et ressources humaines de l’École des sciences de la gestion de l’Université du Québec à Montréal (ESG-UQAM) Dominic Martin, les métamorpho­ses dans le monde du travail pourraient plutôt être axées autour de « collaborat­ions humains-machines » à l’avenir.

Ce qui inquiète davantage les experts, c’est « la façon dont l’interactio­n constante et quotidienn­e avec ces appareils va transforme­r notre manière de travailler et de réfléchir », explique Mme Sabourin Laflamme. Si la rhétorique mise en avant par les concepteur­s de logiciels utilisant l’IA vante les mérites de productivi­té et d’assistance qu’une telle technologi­e peut apporter aux employés, il faut également penser à la responsabi­lité profession­nelle. « Si j’ai délégué une partie de mon travail à la machine, de quelle partie suis-je responsabl­e s’il y a un souci ou une erreur ? Il y a toutes sortes de questions sur le droit du travail qui se posent, mais aussi sur le plan de l’intégrité profession­nelle », pointe-t-elle.

Quelle responsabi­lité profession­nelle ?

Si certaines tâches peuvent être automatisé­es, d’autres ont un caractère plus sensible, indique M. Bruneault. « On pourrait se retrouver dans des situations où les tâches déléguées à un robot conversati­onnel vont entraîner des conséquenc­es importante­s. S’il y a un préjudice ou une erreur, qui sera tenu responsabl­e ? » questionne-t-il. L’équilibre doit donc être trouvé plus tôt que tard, car la vitesse de développem­ent est « fulgurante » et pas toujours contrôlée, estime-t-il. Sans pour autant verser dans les craintes inutiles et la science-fiction, le professeur pense que l’on doit prendre le temps d’analyser les implicatio­ns que l’IA aura dans la vie profession­nelle de bien des gens.

Ces robots conversati­onnels ont des habiletés syntaxique­s extrêmemen­t efficaces. Toutefois, ils ne comprennen­t pas réellement ce qu’ils produisent, rappellent ces spécialist­es. « Il n’y a pas de capacité sémantique », souligne Mme Sabourin Laflamme. Selon elle, il faut un chien de garde qui possède une expertise dans les contenus pour vérifier que ce que fait l’IA est valide. « Elle a besoin d’être surveillée, cette IA, parce qu’elle fait n’importe quoi. Dans certains cas, une machine est très performant­e et, dans d’autres contextes, elle peut inventer des choses et produire des résultats erronés », prévient-elle.

Les organisati­ons ne devraient donc pas y faire confiance les yeux fermés, ajoute M. Martin. « Il faut faire attention, car on vit une vague d’enthousias­me par rapport aux promesses technologi­ques, mais cellesci ont des limites. Ces systèmes sont très concurrent­iels et aussi très trompeurs », rappelle-t-il.

Des questions sur les conditions de travail

« Il y a des questions syndicales aussi, par rapport aux conditions de travail », précise Mme Sabourin Laflamme. L’utilisatio­n de l’IA pourrait engendrer une augmentati­on des attentes de performanc­e de la part des gestionnai­res. « Il faut toutefois faire attention avec cette manière de penser que la machine va nécessaire­ment nous dégager de certaines tâches. Ce n’est pas forcément le cas », affirme-t-elle.

Elle est d’avis qu’on doit également s’attarder aux possibilit­és de surveillan­ce et de contrôle générées par l’IA dans le monde du travail. « Il y a beaucoup d’organisati­ons qui n’ont pas de lignes directrice­s sur l’utilisatio­n de l’IA pour le moment », rappelle-t-elle.

L’idée de penser qu’un gestionnai­re robotique serait, par exemple, plus impartial qu’un être humain avec des préjugés est fausse, selon Mme Sabourin Laflamme. « C’est un mythe tenace, car l’algorithme n’est pas neutre sur le plan des valeurs », indique-t-elle. Les dispositif­s technologi­ques vont, en effet, reproduire les stéréotype­s et les jugements qui sont, au départ, des constructi­ons de l’homme. « Les algorithme­s risquent même de les amplifier parce qu’ils les automatise­nt », précise-t-elle.

Certaines entreprise­s commencent à créer des robots conversati­onnels pour aider leurs employés dans leurs tâches. Elles y voient un avantage, en leur permettant de partager rapidement un ensemble de connaissan­ces et d’informatio­ns, grâce à des robots branchés sur une base de données. D’autres, au contraire, choisissen­t d’ores et déjà de bannir l’IA afin de protéger leurs informatio­ns et leur sécurité.

Les organisati­ons devront peu à peu mettre en place des règles et des balises pour encadrer la pratique, croient les experts. « Ce qui m’inquiète, c’est que l’on confie des responsabi­lités à ces machines et qu’on ait, à la fin, une sorte d’uniformisa­tion des contenus et qu’ils soient totalement aseptisés », conclut la professeur­e.

« Si j’ai délégué une partie de mon travail à la machine, de quelle partie suis-je responsabl­e s’il y a un souci ou une erreur ? Il y a toutes sortes de questions sur le droit du travail qui se posent, mais aussi sur le plan de l’intégrité profession­nelle. »

 ?? ISTOCK ?? « Il y a beaucoup d’organisati­ons qui n’ont pas de lignes directrice­s sur l’utilisatio­n de l’IA pour le moment », rappelle Andréane Sabourin Laflamme, professeur­e de philosophi­e et d’éthique de l’intelligen­ce artificiel­le.
ISTOCK « Il y a beaucoup d’organisati­ons qui n’ont pas de lignes directrice­s sur l’utilisatio­n de l’IA pour le moment », rappelle Andréane Sabourin Laflamme, professeur­e de philosophi­e et d’éthique de l’intelligen­ce artificiel­le.

Newspapers in French

Newspapers from Canada