L’intelligence artificielle risque de tomber dans de mauvaises mains
Des experts appellent les gouvernements à intervenir pour contrer les menaces
PARIS | (AFP) Des experts internationaux sonnent l’alarme sur les risques d’une utilisation malveillante de l’intelligence artificielle par « des États voyous, des criminels, des terroristes », dans un rapport publié hier.
Selon eux, dans les dix prochaines années, l’efficacité croissante de L’IA risque de renforcer la cybercriminalité, mais aussi de conduire à des utilisations de drones ou de robots à des fins terroristes. Elle est aussi susceptible de faciliter la manipulation d’élections via les réseaux sociaux grâce à des comptes automatisés (bots).
Ce rapport de 100 pages a été rédigé par 26 experts spécialistes en intelligence artificielle (IA), cybersécurité et robotique. Ils appartiennent à des universités (Cambridge, Oxford, Yale, Stanford) et à des organisations non gouvernementales (Openai, Center for a New American Security, Electronic Frontier Foundation).
Ces experts appellent les gouvernements et les différents acteurs concernés à mettre en place des parades pour limiter les menaces potentielles liées à l’intelligence artificielle.
« Nous pensons que les attaques qui seront permises par l’utilisation croissante de L’IA seront particulièrement efficaces, finement ciblées et difficiles à attribuer », souligne le rapport.
PLUSIEURS SCÉNARIOS
Pour illustrer leurs craintes, ces spécialistes évoquent plusieurs « scénarios hypothétiques » d’utilisation mal intentionnée de L’IA.
Ils soulignent que des terroristes pourraient modifier des systèmes D’IA disponibles dans le commerce (drones, véhicules autonomes), pour provoquer des écrasements, des collisions ou des explosions.
Par ailleurs, « la cybercriminalité, déjà fortement en hausse, risque de se renforcer avec les outils procurés par L’IA », déclare Seán Ó héigeartaigh de l’université de Cambridge, un des auteurs du rapport. Les attaques par hameçonnage ciblé pourraient ainsi devenir beaucoup plus aisées à mener à une large échelle.
INTERFÉRENCES POLITIQUES
Mais pour lui, « le risque le plus sérieux, même s’il est moins probable, est le risque politique ». « Nous avons déjà vu comment des gens se servaient de la technologie pour essayer d’interférer dans les élections et la démocratie ».
« Si L’IA permet à ces menaces de devenir plus fortes, plus difficiles à repérer et à attribuer, cela pourrait poser de gros problèmes de stabilité politique et contribuer peut-être à déclencher des guerres », estime Seán Ó héigeartaigh.
Avec L’IA, il devrait être possible de réaliser des fausses vidéos très réalistes et cela pourrait être utilisé pour discréditer des responsables politiques.