Un petit guide pratique de l’IA au travail
ENTREPRISES La Confédération a édicté un document indiquant tout ce que ses employés peuvent et ne peuvent pas faire avec des outils d’intelligence artificielle générative. Les recommandations, qui concernent aussi DeepL, peuvent également s’appliquer au secteur privé
C’est un document court, de tout juste trois pages. Mais il livre une multitude de conseils pratiques pour l’utilisation d’outils d’intelligence artificielle (IA) générative au travail. Ce document émane de la Confédération mais il pourrait facilement être utilisé au sein d’entreprises, d’associations, voire au niveau personnel. Intitulé «Fiche technique sur l’utilisation d’outils d’IA générative au sein de l’administration fédérale», c’est un guide pratique pour tous les employés de la Confédération, leur indiquant ce qu’ils peuvent, et ne peuvent pas faire avec l’IA générative.
Premier point intéressant, Berne encourage fortement ses milliers d’employés fédéraux à utiliser ces nouvelles technologies. «Les outils d’IA générative peuvent vous aider dans vos tâches administratives quotidiennes. Osez faire le pas, mettez l’IA à l’épreuve! Avec un peu de créativité, vous contribuerez ainsi à rendre l’administration plus innovante», exhorte le document, qui fournit des exemples: «Ces outils peuvent résumer de longs textes disponibles publiquement, vous donner des conseils quant à la structure de votre présentation PPT, vous proposer des codes de programmation ou vous faire découvrir un nouveau sujet de manière rapide et ludique en échangeant avec vous. Découvrez vous-même dans quels domaines ces outils vous seront le plus utiles.»
«Pas de données personnelles»
Mais très vite, le document liste des interdictions. D’abord lors de la saisie d’informations. «Il ne faut en aucun cas saisir des informations sensibles dans ces outils», avertit la Confédération, qui liste des documents contenant des secrets de fonction, ou des secrets professionnels. «Ne saisissez jamais de données personnelles de quelque nature que ce soit», dit la fiche, appelant à une extrême prudence lors du chargement d’images, de photos privées, d’enregistrements sonores, de vidéos, de simulations et de codes. Il faut veiller à ce que personne ne puisse être identifié.
Attention aussi aux résultats. «Vous avez la responsabilité de l’utilisation des résultats obtenus: vous ne pouvez en aucun cas la déléguer à l’outil d’IA générative», estime la Confédération, qui ajoute: «Vous devez à tout moment pouvoir justifier une décision que vous avez prise sur la base des résultats obtenus à partir d’un outil d’IA générative. En particulier, les personnes concernées ont le droit d’être informées de toute décision prise exclusivement sur la base d’un traitement de données personnelles automatisé et qui a des effets juridiques pour elles ou les affecte de manière significative.» Ce point est important. La Confédération vient de lancer une consultation, qui doit s’achever fin 2024, pour examiner la pertinence d’une loi sur l’IA. Dans le cadre de celle-ci, il est quasi certain que la question des décisions automatisées sera abordée, comme c’est le cas dans le projet de loi européen.
Pourquoi l’administration fédérale a-t-elle décidé de publier maintenant cette fiche sur l’IA? «D’abord, cela fait partie de l’approche stratégique concernant cette technologie, impliquant tous les départements de la Confédération ainsi que la Chancellerie fédérale. Nous voulons nous préparer au mieux à ces outils», répond au Temps Volker Täube, collaborateur scientifique au secrétariat du Réseau de compétences en intelligence artificielle (CNAI) rattaché à l’Office fédéral de la statistique. Il poursuit: «Nous n’avons pas constaté de problème, jusqu’à présent, dans l’utilisation d’outils d’IA générative par les employés fédéraux, mais nous prenons les devants avec ce guide pratique et ses recommandations.»
Alors que ChatGPT permet, dans les paramètres, d’utiliser le service sans envoyer de données à la société américaine OpenAI, pourquoi une telle prudence? «C’est un principe de précaution de base. Pour que ces outils répondent de manière efficace, il faut les nourrir avec des données précises. Mieux vaut être prudent, car la façon dont tous ces services fonctionnent est encore opaque», répond Volker Täube.
Mise à jour
Le document de trois pages, élaboré au sein du groupe de travail «IA au sein de l’administration fédérale» du CNAI, sera mis à jour régulièrement. «Notre groupe, qui compte des représentants de tous les départements et de la Chancellerie fédérale, se réunit une fois par semaine. Nous adapterons cette fiche en fonction des nouveaux outils proposés, des questions des employés de la Confédération et des problèmes rencontrés», poursuit l’expert.
Un autre document concernant l’IA a été élaboré par la Confédération, intitulé «Aide-mémoire concernant l’utilisation de DeepL et d’autres logiciels de traduction en ligne» – il concerne aussi Google Translate, Bing Microsoft Translator, Babylon, Promt Online Translator, Systran Translate ou WordLingo, précise Berne. Le texte avertit: «Les logiciels de traduction en ligne n’offrent aucune garantie de confidentialité», appelant à «être particulièrement vigilant et veiller à toujours respecter les dispositions concernant la protection des données et des informations». Il ne faut ainsi jamais traduire des documents classifiés «interne», «confidentiel» ou «secret», des textes qui ne sont pas classifiés mais contiennent des informations sensibles et des données personnelles de toute nature.
Garanties insuffisantes
Fait intéressant, le 11 décembre 2023, la Chancellerie fédérale annonçait l’acquisition du système de traduction automatique DeepL Pro pour l’administration fédérale, pour 1,9 million de francs sur deux ans. L’entreprise allemande assure, sur son site, que la version Pro payante offre ceci: «Profitez des meilleures normes de protection de données au monde et de la suppression de vos textes immédiatement après leur traduction.» Pas assez pour rassurer la Confédération? «Non, répond Volker Täube. Ce niveau de sécurité n’est pas suffisant pour des documents confidentiels, mais il l’est pour des documents généraux. Là aussi, un principe de prudence prévaut au sein de l’Etat.» ■
«Il ne faut en aucun cas saisir des informations sensibles dans ces outils»
GUIDE DE LA CONFÉDÉRATION SUR L’IA GÉNÉRATIVE