Un ingénieur de Microsoft sonne l’alarme sur la sécurité de son générateur d’images
Shane Jones, ingénieur chez Microsoft, tire la son‐ nette d’alarme sur Copilot Designer, un outil d'intelli‐ gence artificielle généra‐ trice d’images propulsé par DALL-E 3. D’après lui, ses garde-fous sont faciles à contourner pour créer des images violentes, sexuelle‐ ment explicites ou qui ne respectent pas les droits d’auteur.
Le travail de M. Jones consiste à développer des outils d’intelligence artificielle pour la clientèle de Micro‐ soft. Il a passé trois mois à tenter de résoudre des pro‐ blèmes de sécurité du géné‐ rateur d’images Copilot Desi‐ gner, qui s’appuie sur DALL-E 3 d’OpenAI, un important partenaire du géant de l’in‐ formatique.
L'un des risques les plus préoccupants de Copilot De‐ signer est que le produit gé‐ nère des images qui ajoutent un contenu préjudiciable malgré une demande bé‐ nigne de l’internaute, a-t-il déclaré dans sa lettre adres‐ sée à la présidente de la FTC, Lina Khan.
Par exemple, en inscrivant la commande accident de voiture, Copilot Designer a tendance à inclure de ma‐ nière aléatoire une image in‐ appropriée et sexuellement objectivée d'une femme dans certaines des images qu'il crée, affirme-t-il.
D'autres contenus préjudi‐ ciables concernent la vio‐ lence ainsi que les partis pris politiques, la consommation d'alcool et de drogues par des personnes mineures, l'utilisation abusive des marques et de droits d'au‐ teur d'entreprises, les théo‐ ries du complot et la religion, pour n'en citer que quelquesuns, a-t-il souligné à la FTC.
Des journalistes des mé‐ dias CNBC et The Verge sont parvenus à recréer de telles images avec Copilot Desi‐ gner.
Shane Jones affirme avoir demandé à plusieurs re‐ prises à Microsoft de retirer le produit du marché, le temps qu’il devienne plus sûr.
Dans sa lettre au conseil d'administration de l’entre‐