Il faut s’attaquer aux « angles morts » de l’IA, alertent des experts internationaux
La croissance rapide de l'in‐ telligence artificielle et son omniprésence dans nos vies font émerger des pro‐ blèmes de gouvernance et d'encadrement, alertent l'UNESCO et le Mila (Insti‐ tut québécois d'intelli‐ gence artificielle) dans un livre conjoint publié lundi.
Cet ouvrage, intitulé Angles morts de la gouver‐ nance de l'intelligence artifi‐ cielle, constitue un outil pour réfléchir au rôle que nous voulons que l'IA joue dans nos vies et dans le monde, tout en soulignant le besoin de cadres réglementaires pour mieux encadrer le déve‐ loppement de la technologie, pour tirer profit des occasions qu'elle offre et pour réduire les risques qu'elle pose, a ex‐ pliqué dans un communiqué Benjamin Prud'homme, direc‐ teur général du département IA pour l'humanité à Mila.
Le document rassemble 18 articles écrits par diverses sommités mondiales du do‐ maine qui font le portrait des multiples risques associés à ces technologies, passés entre les mailles du filet : influence sur les communautés autoch‐ tones et LGBTQ+, utilisation comme armes de guerre, biais des algorithmes, etc.
Ces problèmes, estiment les auteurs, prendront une place de plus en plus grande au cours des prochaines an‐ nées, si bien que la gouver‐ nance de l'IA est devenue une priorité mondiale.
Repérer les angles morts dans la gouvernance de l'IA est non seulement essentiel pour le développement res‐ ponsable de l'IA, mais aussi pour la protection et la pro‐ motion des droits de la per‐ sonne à l'ère numérique.
Tawfik Jelassi, sous-direc‐ teur général de l'UNESCO pour la communication et l'in‐ formation
Centralisation des pou‐ voirs
Deux des auteurs, à savoir le directeur scientifique du Mila, Joshua Bengio, et la spé‐ cialiste des implications so‐ ciales et politiques de l'intelli‐ gence artificielle Kate Craw‐ ford, ont discuté pour le lan‐ cement du livre de leurs craintes associées à la concen‐ tration du pouvoir lié à ces technologies.
On a tendance, particuliè‐ rement en IA, à se pencher sur les données et les algo‐ rithmes, et parfois les infra‐ structures. Mais c'est tout. Une erreur très sérieuse est de ne pas regarder les im‐ pacts à grande échelle de ces systèmes.
Kate Crawford, spécialiste des implications sociales et politiques de l'intelligence ar‐ tificielle
La chercheuse a notam‐ ment déploré le fait que les systèmes d'intelligence artifi‐ cielle capables de générer des images et textes en réponse à des commandes, tels ChatGPT et DALL-E, soient entre les mains d'à peine six compagnies. C'est l'une des industries les plus concen‐ trées dans le monde, a-t-elle lancé.
Ces entreprises récupèrent des décennies, voire des siècles de pratiques artis‐ tiques, d'images, de mots et de codes, [...] et les attribuent ensuite à leurs propres sys‐ tèmes qui ne profiteront qu'à très peu de gens, a ajouté Mme Crawford.
Joshua Bengio a quant à lui laissé entrevoir un futur où l'intelligence artificielle pour‐ rait causer des perturbations aussi grandes que les bombes nucléaires. Et si seulement quelques personnes avaient ce pouvoir?
Le chercheur a d'ailleurs évoqué un danger pour la dé‐ mocratie. Quelqu'un d'un peu stupide ou fou pourrait sim‐ plement appuyer [sur] le bou‐ ton, et nous serions tous per‐ dants, a-t-il remarqué.
Selon M. Bengio, les gou‐ vernements devront donc mettre en place des organisa‐ tions en mesure de considé‐ rer l'intelligence artificielle comme un bien collectif. Le di‐ recteur scientifique du Mila a donné l'exemple du CERN, le laboratoire européen de phy‐ sique des particules qui per‐ met de mettre en commun l'expertise de nombreux pays.
Nous devons nous assurer que ces progrès [de l'IA] n'ap‐ partiennent pas seulement à quelques entreprises, mais soient au bénéfice de toute la société.
Joshua Bengio, directeur scientifique du Mila
Des biais implicites
L'intelligence artificielle ne possède pas de conscience. Elle assimile les valeurs et idéaux en fonction des don‐ nées utilisées au moment de sa programmation. Plusieurs des auteurs du livre s'in‐ quiètent ainsi de la vision du monde occidental dont ces technologies s'imprègnent, ainsi que des biais et préjugés qu'elles reproduisent.
En 2016, par exemple, des journalistes d'enquête de l'or‐ ganisme ProPublica ont mis en lumière les failles de l'outil américain COMPAS, utilisé pour estimer le risque de réci‐ dive chez une personne accu‐ sée d'une infraction pénale. Les personnes noires étaient deux fois plus souvent jugées à haut risque, sans com‐ mettre, dans les faits, de réci‐ dive.
La présence de ces techno‐ logies dans les communautés autochtones met également en péril leurs droits fonda‐ mentaux garantis par la Dé‐ claration des Nations unies sur les droits des peuples au‐ tochtones et devant reposer sur leur propre vision du monde.
Les chercheurs craignent ainsi que, si ces communau‐ tés ne sont pas incluses dans les développements techno‐ logiques, celles-ci mènent à de nouvelles formes de colonia‐ lisme.
L'IA comme arme de guerre
L'intelligence artificielle s'implante rapidement jusque dans les rangs de l'armée. Plus de 130 systèmes mili‐ taires peuvent déjà localiser des cibles de manière auto‐ nome.
Elle permet, selon les au‐ teurs, le développement de technologies sophistiquées d’hypertrucage qui pourraient mener à une escalade de conflits et à une instabilité à l’échelle mondiale.
Les chercheurs insistent de ce fait sur l'urgent besoin de réglementations entou‐ rant la militarisation de l'IA. Plus encore, ils en appellent à une large réflexion sur le rôle
de ces technologies dans tous les secteurs, de l'éducation à la santé, en passant par la cy‐ bersécurité.
Des conversations mon‐ diales et inclusives sont es‐ sentielles pour nous aider à faire la lumière sur ces défis et à imaginer de nouvelles fa‐ çons de les comprendre, puis de les relever, affirment-ils.