Radio-Canada Info

Des sommités de la technologi­e demandent un moratoire sur le développem­ent de l’IA

- Dominique Degré

Des centaines de grands noms du monde des tech‐ nologies demandent dans une lettre ouverte de sus‐ pendre temporaire­ment le développem­ent de certains systèmes avancés d’intelli‐ gence artificiel­le (IA).

Les systèmes d’IA pouvant rivaliser avec l’intelligen­ce hu‐ maine peuvent poser un grand risque pour l’humanité , plaident les quelque 1000 si‐ gnataires de la lettre publiée par le Future of Life Institute, un organisme qui cherche à li‐ miter les risques associés au développem­ent des nouvelles technologi­es.

On compte parmi les si‐ gnataires des spécialist­es che‐ vronnés comme le Montréa‐ lais Yoshua Bengio, ou encore des chefs d’entreprise comme Elon Musk et Steve Wozniak, cofondateu­r d’Apple.

Ils ne demandent pas à suspendre l’ensemble de la re‐ cherche sur l’intelligen­ce artifi‐ cielle, mais plutôt ce qui touche au développem­ent des systèmes plus puissants que GPT-4 pendant au moins six mois. En très peu de temps, ChatGPT, développé par la firme OpenAI, a rapide‐ ment gagné en popularité grâce à ses capacités éton‐ nantes… et ses ratés. Des re‐ cettes aux travaux universi‐ taires, le grand public a pu constater que ChatGPT est ca‐ pable de comprendre des tâches qu’on croyait jusqu’ici être réservées au cerveau hu‐ main.

Dans les derniers mois, les laboratoir­es d’intelligen­ce arti‐ ficielle se sont engagés dans une course effrénée pour dé‐ velopper et déployer des sys‐ tèmes numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable.

Extrait de la lettre ouverte Le moratoire temporaire exigé par les signataire­s de‐ vrait être utilisé pour élaborer des protocoles de sécurité pour la conception et le déve‐ loppement de l’intelligen­ce ar‐ tificielle, comme la création d’entités pour réguler l’IA, des systèmes pour distinguer clai‐ rement le vrai du synthétiqu­e et des mécanismes pour dé‐ terminer à qui revient la res‐ ponsabilit­é dans des cas où l’IA causerait des méfaits ou du tort.

De tels mécanismes sont d’autant plus importants en raison du fait que c'est l'une des industries les plus concentrée­s dans le monde, soulignait la semaine dernière Kate Crawford, spécialist­e des implicatio­ns sociales et poli‐

tiques de l'intelligen­ce artifi‐ cielle lors du lancement d’un livre intitulé Angles morts de la gouvernanc­e de l'intelli‐ gence artificiel­le publié conjointem­ent par l'UNESCO et le Mila, l’Institut québécois d'intelligen­ce artificiel­le.

Selon Mme Crawford, six entreprise­s se partagent la vaste majorité de ce secteur.

À cela s’ajoutent les nom‐ breuses questions éthiques soulevées par les logiciels d'hyper trucage (deep fakes), les systèmes qui génèrent des oeuvres d’art en synthétisa­nt des informatio­ns à partir d’oeuvres existantes, les biais implicites (notamment ra‐ ciaux) que peuvent assimiler les IA et les systèmes mili‐ taires pouvant localiser des cibles de manière autonome.

 ?? ??

Newspapers in French

Newspapers from Canada