Radio-Canada Info

Un ingénieur de Microsoft sonne l’alarme sur la sécurité de son générateur d’images

-

Shane Jones, ingénieur chez Microsoft, tire la son‐ nette d’alarme sur Copilot Designer, un outil d'intelli‐ gence artificiel­le généra‐ trice d’images propulsé par DALL-E 3. D’après lui, ses garde-fous sont faciles à contourner pour créer des images violentes, sexuelle‐ ment explicites ou qui ne respectent pas les droits d’auteur.

Le travail de M. Jones consiste à développer des outils d’intelligen­ce artificiel­le pour la clientèle de Micro‐ soft. Il a passé trois mois à tenter de résoudre des pro‐ blèmes de sécurité du géné‐ rateur d’images Copilot Desi‐ gner, qui s’appuie sur DALL-E 3 d’OpenAI, un important partenaire du géant de l’in‐ formatique.

L'un des risques les plus préoccupan­ts de Copilot De‐ signer est que le produit gé‐ nère des images qui ajoutent un contenu préjudicia­ble malgré une demande bé‐ nigne de l’internaute, a-t-il déclaré dans sa lettre adres‐ sée à la présidente de la FTC, Lina Khan.

Par exemple, en inscrivant la commande accident de voiture, Copilot Designer a tendance à inclure de ma‐ nière aléatoire une image in‐ appropriée et sexuelleme­nt objectivée d'une femme dans certaines des images qu'il crée, affirme-t-il.

D'autres contenus préjudi‐ ciables concernent la vio‐ lence ainsi que les partis pris politiques, la consommati­on d'alcool et de drogues par des personnes mineures, l'utilisatio­n abusive des marques et de droits d'au‐ teur d'entreprise­s, les théo‐ ries du complot et la religion, pour n'en citer que quelquesun­s, a-t-il souligné à la FTC.

Des journalist­es des mé‐ dias CNBC et The Verge sont parvenus à recréer de telles images avec Copilot Desi‐ gner.

Shane Jones affirme avoir demandé à plusieurs re‐ prises à Microsoft de retirer le produit du marché, le temps qu’il devienne plus sûr.

Dans sa lettre au conseil d'administra­tion de l’entre‐ prise, il lui demande de lan‐ cer une enquête indépen‐ dante afin de déterminer si l'entreprise commercial­ise des produits dangereux sans divulguer les risques connus pour les consommate­urs et les consommatr­ices, y com‐ pris les enfants.

Des démarches en vain

Ce n'est pas la première fois que M. Jones exprime publiqueme­nt ses inquié‐ tudes. Microsoft lui avait d'abord conseillé de faire part de ses conclusion­s direc‐ tement à OpenAI, mais ça n’a pas fonctionné, d’après lui.

En décembre, il a publié une lettre ouverte à l'atten‐ tion d’OpenAI sur LinkedIn, un réseau social détenu par Microsoft. Un responsabl­e l’a informé que l'équipe juri‐ dique du géant exigeait qu’il supprime le message, ce qu’il a fait à contrecoeu­r, racontet-il dans la lettre qu'il a adres‐ sée au conseil d'administra‐ tion de l'entreprise.

L’ingénieur a également affirmé à l’Associated Press qu’il avait rencontré en fé‐ vrier des membres du Sénat américain pour leur faire part de ses inquiétude­s. Il a aussi fait part de ses préoccupa‐ tions au procureur général de l'État de Washington, où se trouve le siège de Micro‐ soft.

Contactée par l’Associated Press, Microsoft a indiqué s’engager à répondre aux préoccupat­ions de son per‐ sonnel concernant les poli‐ tiques de l’entreprise. Elle a également souligné les ef‐ forts déployés par M. Jones pour étudier et tester la tech‐ nologie afin d’en améliorer la sécurité.

ChatGPT ne serait pas touché

D’après Shane Jones, les gens qui utilisent le robot conversati­onnel ChatGPT d’OpenAI pour générer des images d’intelligen­ce artifi‐ cielle n’obtiendron­t pas les mêmes résultats qu’il juge néfastes, car les deux entre‐ prises recouvrent leurs pro‐ duits de garanties diffé‐ rentes.

Bon nombre des pro‐ blèmes rencontrés avec Copi‐ lot Designer sont déjà réso‐ lus par les propres mesures de protection de ChatGPT, at-il déclaré par texto à l’Asso‐ ciated Press.

Cette lettre survient quelques semaines après que Google eut temporaire‐ ment suspendu la capacité de son outil d'intelligen­ce ar‐ tificielle (IA) Gemini à générer des images de personnes. Des internaute­s ont notam‐ ment dénoncé que le logiciel représenta­it des militaires al‐ lemands de l’époque du ré‐ gime nazi comme des per‐ sonnes asiatiques ou noires.

Jeudi, l'UNESCO a égale‐ ment mis en garde contre les grands modèles de langage de Meta et d'OpenAI, qui servent de base à leurs outils d'intelligen­ce artificiel­le gé‐ nérative, car ils véhiculent des préjugés sexistes, selon une étude.

Pour lutter contre ces pré‐ jugés, l'UNESCO recom‐ mande aux entreprise­s du secteur d'avoir des équipes d'ingénierie plus diverses, avec davantage de femmes, notamment. Elles ne repré‐ sentent que 22 % des membres des équipes tra‐ vaillant en intelligen­ce artifi‐ cielle dans le monde, selon les chiffres du forum écono‐ mique mondial.

L'instance onusienne ap‐ pelle aussi les gouverne‐ ments à davantage de régu‐ lation pour mettre en place une intelligen­ce artificiel­le éthique.

 ?? ??

Newspapers in French

Newspapers from Canada