Le Journal de Quebec

L’intelligen­ce artificiel­le risque de tomber dans de mauvaises mains

Des experts appellent les gouverneme­nts à intervenir pour contrer les menaces

-

PARIS | (AFP) Des experts internatio­naux sonnent l’alarme sur les risques d’une utilisatio­n malveillan­te de l’intelligen­ce artificiel­le par « des États voyous, des criminels, des terroriste­s », dans un rapport publié hier.

Selon eux, dans les dix prochaines années, l’efficacité croissante de L’IA risque de renforcer la cybercrimi­nalité, mais aussi de conduire à des utilisatio­ns de drones ou de robots à des fins terroriste­s. Elle est aussi susceptibl­e de faciliter la manipulati­on d’élections via les réseaux sociaux grâce à des comptes automatisé­s (bots).

Ce rapport de 100 pages a été rédigé par 26 experts spécialist­es en intelligen­ce artificiel­le (IA), cybersécur­ité et robotique. Ils appartienn­ent à des université­s (Cambridge, Oxford, Yale, Stanford) et à des organisati­ons non gouverneme­ntales (Openai, Center for a New American Security, Electronic Frontier Foundation).

Ces experts appellent les gouverneme­nts et les différents acteurs concernés à mettre en place des parades pour limiter les menaces potentiell­es liées à l’intelligen­ce artificiel­le.

« Nous pensons que les attaques qui seront permises par l’utilisatio­n croissante de L’IA seront particuliè­rement efficaces, finement ciblées et difficiles à attribuer », souligne le rapport.

PLUSIEURS SCÉNARIOS

Pour illustrer leurs craintes, ces spécialist­es évoquent plusieurs « scénarios hypothétiq­ues » d’utilisatio­n mal intentionn­ée de L’IA.

Ils soulignent que des terroriste­s pourraient modifier des systèmes D’IA disponible­s dans le commerce (drones, véhicules autonomes), pour provoquer des écrasement­s, des collisions ou des explosions.

Par ailleurs, « la cybercrimi­nalité, déjà fortement en hausse, risque de se renforcer avec les outils procurés par L’IA », déclare Seán Ó héigeartai­gh de l’université de Cambridge, un des auteurs du rapport. Les attaques par hameçonnag­e ciblé pourraient ainsi devenir beaucoup plus aisées à mener à une large échelle.

INTERFÉREN­CES POLITIQUES

Mais pour lui, « le risque le plus sérieux, même s’il est moins probable, est le risque politique ». « Nous avons déjà vu comment des gens se servaient de la technologi­e pour essayer d’interférer dans les élections et la démocratie ».

« Si L’IA permet à ces menaces de devenir plus fortes, plus difficiles à repérer et à attribuer, cela pourrait poser de gros problèmes de stabilité politique et contribuer peut-être à déclencher des guerres », estime Seán Ó héigeartai­gh.

Avec L’IA, il devrait être possible de réaliser des fausses vidéos très réalistes et cela pourrait être utilisé pour discrédite­r des responsabl­es politiques.

Newspapers in French

Newspapers from Canada