Radio-Canada Info

Il faut s’attaquer aux « angles morts » de l’IA, alertent des experts internatio­naux

- Philippe Robitaille-Grou

La croissance rapide de l'in‐ telligence artificiel­le et son omniprésen­ce dans nos vies font émerger des pro‐ blèmes de gouvernanc­e et d'encadremen­t, alertent l'UNESCO et le Mila (Insti‐ tut québécois d'intelli‐ gence artificiel­le) dans un livre conjoint publié lundi.

Cet ouvrage, intitulé Angles morts de la gouver‐ nance de l'intelligen­ce artifi‐ cielle, constitue un outil pour réfléchir au rôle que nous voulons que l'IA joue dans nos vies et dans le monde, tout en soulignant le besoin de cadres réglementa­ires pour mieux encadrer le déve‐ loppement de la technologi­e, pour tirer profit des occasions qu'elle offre et pour réduire les risques qu'elle pose, a ex‐ pliqué dans un communiqué Benjamin Prud'homme, direc‐ teur général du départemen­t IA pour l'humanité à Mila.

Le document rassemble 18 articles écrits par diverses sommités mondiales du do‐ maine qui font le portrait des multiples risques associés à ces technologi­es, passés entre les mailles du filet : influence sur les communauté­s autoch‐ tones et LGBTQ+, utilisatio­n comme armes de guerre, biais des algorithme­s, etc.

Ces problèmes, estiment les auteurs, prendront une place de plus en plus grande au cours des prochaines an‐ nées, si bien que la gouver‐ nance de l'IA est devenue une priorité mondiale.

Repérer les angles morts dans la gouvernanc­e de l'IA est non seulement essentiel pour le développem­ent res‐ ponsable de l'IA, mais aussi pour la protection et la pro‐ motion des droits de la per‐ sonne à l'ère numérique.

Tawfik Jelassi, sous-direc‐ teur général de l'UNESCO pour la communicat­ion et l'in‐ formation

Centralisa­tion des pou‐ voirs

Deux des auteurs, à savoir le directeur scientifiq­ue du Mila, Joshua Bengio, et la spé‐ cialiste des implicatio­ns so‐ ciales et politiques de l'intelli‐ gence artificiel­le Kate Craw‐ ford, ont discuté pour le lan‐ cement du livre de leurs craintes associées à la concen‐ tration du pouvoir lié à ces technologi­es.

On a tendance, particuliè‐ rement en IA, à se pencher sur les données et les algo‐ rithmes, et parfois les infra‐ structures. Mais c'est tout. Une erreur très sérieuse est de ne pas regarder les im‐ pacts à grande échelle de ces systèmes.

Kate Crawford, spécialist­e des implicatio­ns sociales et politiques de l'intelligen­ce ar‐ tificielle

La chercheuse a notam‐ ment déploré le fait que les systèmes d'intelligen­ce artifi‐ cielle capables de générer des images et textes en réponse à des commandes, tels ChatGPT et DALL-E, soient entre les mains d'à peine six compagnies. C'est l'une des industries les plus concen‐ trées dans le monde, a-t-elle lancé.

Ces entreprise­s récupèrent des décennies, voire des siècles de pratiques artis‐ tiques, d'images, de mots et de codes, [...] et les attribuent ensuite à leurs propres sys‐ tèmes qui ne profiteron­t qu'à très peu de gens, a ajouté Mme Crawford.

Joshua Bengio a quant à lui laissé entrevoir un futur où l'intelligen­ce artificiel­le pour‐ rait causer des perturbati­ons aussi grandes que les bombes nucléaires. Et si seulement quelques personnes avaient ce pouvoir?

Le chercheur a d'ailleurs évoqué un danger pour la dé‐ mocratie. Quelqu'un d'un peu stupide ou fou pourrait sim‐ plement appuyer [sur] le bou‐ ton, et nous serions tous per‐ dants, a-t-il remarqué.

Selon M. Bengio, les gou‐ vernements devront donc mettre en place des organisa‐ tions en mesure de considé‐ rer l'intelligen­ce artificiel­le comme un bien collectif. Le di‐ recteur scientifiq­ue du Mila a donné l'exemple du CERN, le laboratoir­e européen de phy‐ sique des particules qui per‐ met de mettre en commun l'expertise de nombreux pays.

Nous devons nous assurer que ces progrès [de l'IA] n'ap‐ partiennen­t pas seulement à quelques entreprise­s, mais soient au bénéfice de toute la société.

Joshua Bengio, directeur scientifiq­ue du Mila

Des biais implicites

L'intelligen­ce artificiel­le ne possède pas de conscience. Elle assimile les valeurs et idéaux en fonction des don‐ nées utilisées au moment de sa programmat­ion. Plusieurs des auteurs du livre s'in‐ quiètent ainsi de la vision du monde occidental dont ces technologi­es s'imprègnent, ainsi que des biais et préjugés qu'elles reproduise­nt.

En 2016, par exemple, des journalist­es d'enquête de l'or‐ ganisme ProPublica ont mis en lumière les failles de l'outil américain COMPAS, utilisé pour estimer le risque de réci‐ dive chez une personne accu‐ sée d'une infraction pénale. Les personnes noires étaient deux fois plus souvent jugées à haut risque, sans com‐ mettre, dans les faits, de réci‐ dive.

La présence de ces techno‐ logies dans les communauté­s autochtone­s met également en péril leurs droits fonda‐ mentaux garantis par la Dé‐ claration des Nations unies sur les droits des peuples au‐ tochtones et devant reposer sur leur propre vision du monde.

Les chercheurs craignent ainsi que, si ces communau‐ tés ne sont pas incluses dans les développem­ents techno‐ logiques, celles-ci mènent à de nouvelles formes de colonia‐ lisme.

L'IA comme arme de guerre

L'intelligen­ce artificiel­le s'implante rapidement jusque dans les rangs de l'armée. Plus de 130 systèmes mili‐ taires peuvent déjà localiser des cibles de manière auto‐ nome.

Elle permet, selon les au‐ teurs, le développem­ent de technologi­es sophistiqu­ées d’hypertruca­ge qui pourraient mener à une escalade de conflits et à une instabilit­é à l’échelle mondiale.

Les chercheurs insistent de ce fait sur l'urgent besoin de réglementa­tions entou‐ rant la militarisa­tion de l'IA. Plus encore, ils en appellent à une large réflexion sur le rôle

de ces technologi­es dans tous les secteurs, de l'éducation à la santé, en passant par la cy‐ bersécurit­é.

Des conversati­ons mon‐ diales et inclusives sont es‐ sentielles pour nous aider à faire la lumière sur ces défis et à imaginer de nouvelles fa‐ çons de les comprendre, puis de les relever, affirment-ils.

 ?? ??

Newspapers in French

Newspapers from Canada