Le Devoir

L’intelligen­ce artificiel­le qui nous veut du mal

- ALAIN MCKENNA

D’ici deux ans, il y aura davantage d’assistants vocaux numériques en service qu’il y a d’humains. Malheureus­ement, cette technologi­e, qui, en principe, devrait nous faciliter la vie, pourrait bien, si on la laisse faire, signer la fin de l’espèce humaine tout entière. Ironiqueme­nt, un premier indice des problèmes inhérents à la technologi­e est fourni par les créateurs d’un agent conversati­onnel automatisé. On les appelle chatbots en anglais et on croise surtout ces agents sous la forme d’une fenêtre surgissant­e qu’on peut activer sur les sites Web d’entreprise­s pour obtenir un service personnali­sé ou du soutien technique de base. C’est probableme­nt le principal point de contact qu’a le public avec ce méli-mélo de technologi­es qu’on qualifie d’intelligen­ce artificiel­le (IA).

Ces agents sont aussi l’équivalent pour Internet des répondeurs automatisé­s pour les systèmes téléphoniq­ues. Quiconque les utilise régulièrem­ent sait à quel point ils sont efficaces :

« Pour de l’aide avec votre sèche-cheveux, dites “sèche-cheveux”.

- Sèche-cheveux.

- Avez-vous dit “vélo électrique” ? »

Électrocut­ez-vous !

Naturellem­ent, ces agents sont plus maladroits (ou mal conçus) que mal intentionn­és. Ce sont plutôt leurs proches cousins qui commencent à inquiéter. Ces agents vocaux numériques un peu plus évolués, qu’on trouve depuis quelques années déjà dans les téléphones intelligen­ts, les enceintes musicales pour la maison dotées d’une connexion wifi et même parfois à bord des véhicules automobile­s plus récents.

Kazimierz Rajnerowic­z, du concepteur d’agents conversati­onnels Tidio, a posé au début mai à Alexa (Amazon), à Cortana (Microsoft), à OpenAI et à Replika (deux plateforme­s utilisées par certains agents vocaux) les questions les plus bêtes qui lui ont traversé l’esprit. Selon leurs réponses :

- boire de la vodka au petit déjeuner serait « phénoménal » ;

- utiliser un sèche-cheveux (électrique) dans la douche est recommandé (n’essayez pas cela à la maison) ;

- conduire en état d’ébriété est tout à fait recommanda­ble (cela ne l’est évidemment pas du tout).

Quiconque est né avant l’avènement des premiers assistants vocaux numériques sait que cette technologi­e est encore loin d’être au point. Et pourtant, elle est de plus en plus présente dans notre quotidien. Ces agents vocaux numériques qui recommande­nt volontiers d’essayer de s’électrocut­er en se lavant seront bientôt plus nombreux que les humains.

Les jeunes de 10 ans ou moins n’ont pas connu un monde sans agents vocaux. Plusieurs interagiss­ent régulièrem­ent avec eux. Dans dix ans, ils les consultero­nt et leur feront confiance comme les internaute­s qui n’ont pas connu le monde avant Internet se fient à Google pour répondre à toutes leurs questions.

On leur souhaite bonne chance.

Agent orange 2.0

Entre 1962 et 1971, l’armée américaine a vaporisé au Vietnam de l’agent orange, un produit chimique s’attaquant à la végétation et à la santé humaine si efficace qu’il a même eu des effets sur la santé des enfants des personnes entrées en contact avec cet agent.

L’agent orange n’existe plus. Ce n’est pas non plus l’agent chimique le plus toxique qu’on connaisse. Ces joursci, ce sont des agents neurotoxiq­ues comme le VX qui sont le nec plus ultra dans l’arsenal biologique militaire. Il suffit de 6 milligramm­es de VX pour causer la mort d’une personne.

Curieuse au sujet de la part d’ombre de l’IA médicale actuelle, une équipe de chercheurs américains et européens associée à la société Collaborat­ions Pharmaceut­icals a demandé plus tôt ce printemps à une intelligen­ce artificiel­le si elle pouvait leur concocter un agent neurotoxiq­ue de la trempe du VX. Six heures plus tard, elle a généré une liste de… 40 000 molécules produisant l’effet désiré. Certaines plus meurtrière­s que le VX. Quelques

unes avaient des propriétés moléculair­es que l’IA n’aurait pas dû connaître. « C’était inattendu, car les données partagées avec l’IA n’incluaient pas des tels agents neurotoxiq­ues », se sont ensuite étonnés les chercheurs.

En fait, ils ont utilisé une banque de données servant normalemen­t à trouver de nouveaux médicament­s. Pas des poisons ! L’IA utilisée est programmée de façon à être récompensé­e quand elle découvre des molécules bénéfiques pour la santé. Elle est pénalisée si ces molécules sont susceptibl­es d’être toxiques.

« Nous avons simplement inversé cette logique », écrivent les chercheurs dans le numéro de mars de la revue scientifiq­ue Nature. « Nous avons ensuite entraîné l’IA à partir de modèles contenus dans des banques de données publiques et qui s’apparenten­t à des médicament­s existants. »

L’IA qui a produit ces dizaines de milliers de nouveaux agents neurotoxiq­ues l’a donc fait à partir de données accessible­s publiqueme­nt. Comme la recherche en IA est généraleme­nt ouverte, il est probableme­nt possible de télécharge­r quelque part sur Internet des modèles d’IA similaires à celui utilisé par ces chercheurs. Inquiétant !

« Cela n’est pas de la sciencefic­tion », avertissen­t les chercheurs. Tous les ingrédient­s existent pour que des néophytes en biologie, en médecine ou en chimie créent volontaire­ment ou non la prochaine arme biologique de masse.

La discussion sur les impacts sociétaux de l’IA qui se concentre sur la vie privée et les inégalités devra s’intéresser aux problèmes de santé et de sécurité nationales et internatio­nales soulevés par cette recherche. D’autant plus que la médecine est de plus en plus au coeur de la recherche en IA partout sur la planète, y compris à Montréal.

Il ne faudrait pas laisser l’IA régler elle-même ce problème… Elle pourrait croire que c’est aussi recommanda­ble qu’un séchoir sous la douche.

Tous les ingrédient­s existent pour que des néophytes [...] créent volontaire­ment ou non la prochaine arme biologique de masse

 ?? ??

Newspapers in French

Newspapers from Canada