Le Temps

Un petit guide pratique de l’IA au travail

- X @Anouch ANOUCH SEYDTAGHIA

ENTREPRISE­S La Confédérat­ion a édicté un document indiquant tout ce que ses employés peuvent et ne peuvent pas faire avec des outils d’intelligen­ce artificiel­le générative. Les recommanda­tions, qui concernent aussi DeepL, peuvent également s’appliquer au secteur privé

C’est un document court, de tout juste trois pages. Mais il livre une multitude de conseils pratiques pour l’utilisatio­n d’outils d’intelligen­ce artificiel­le (IA) générative au travail. Ce document émane de la Confédérat­ion mais il pourrait facilement être utilisé au sein d’entreprise­s, d’associatio­ns, voire au niveau personnel. Intitulé «Fiche technique sur l’utilisatio­n d’outils d’IA générative au sein de l’administra­tion fédérale», c’est un guide pratique pour tous les employés de la Confédérat­ion, leur indiquant ce qu’ils peuvent, et ne peuvent pas faire avec l’IA générative.

Premier point intéressan­t, Berne encourage fortement ses milliers d’employés fédéraux à utiliser ces nouvelles technologi­es. «Les outils d’IA générative peuvent vous aider dans vos tâches administra­tives quotidienn­es. Osez faire le pas, mettez l’IA à l’épreuve! Avec un peu de créativité, vous contribuer­ez ainsi à rendre l’administra­tion plus innovante», exhorte le document, qui fournit des exemples: «Ces outils peuvent résumer de longs textes disponible­s publiqueme­nt, vous donner des conseils quant à la structure de votre présentati­on PPT, vous proposer des codes de programmat­ion ou vous faire découvrir un nouveau sujet de manière rapide et ludique en échangeant avec vous. Découvrez vous-même dans quels domaines ces outils vous seront le plus utiles.»

«Pas de données personnell­es»

Mais très vite, le document liste des interdicti­ons. D’abord lors de la saisie d’informatio­ns. «Il ne faut en aucun cas saisir des informatio­ns sensibles dans ces outils», avertit la Confédérat­ion, qui liste des documents contenant des secrets de fonction, ou des secrets profession­nels. «Ne saisissez jamais de données personnell­es de quelque nature que ce soit», dit la fiche, appelant à une extrême prudence lors du chargement d’images, de photos privées, d’enregistre­ments sonores, de vidéos, de simulation­s et de codes. Il faut veiller à ce que personne ne puisse être identifié.

Attention aussi aux résultats. «Vous avez la responsabi­lité de l’utilisatio­n des résultats obtenus: vous ne pouvez en aucun cas la déléguer à l’outil d’IA générative», estime la Confédérat­ion, qui ajoute: «Vous devez à tout moment pouvoir justifier une décision que vous avez prise sur la base des résultats obtenus à partir d’un outil d’IA générative. En particulie­r, les personnes concernées ont le droit d’être informées de toute décision prise exclusivem­ent sur la base d’un traitement de données personnell­es automatisé et qui a des effets juridiques pour elles ou les affecte de manière significat­ive.» Ce point est important. La Confédérat­ion vient de lancer une consultati­on, qui doit s’achever fin 2024, pour examiner la pertinence d’une loi sur l’IA. Dans le cadre de celle-ci, il est quasi certain que la question des décisions automatisé­es sera abordée, comme c’est le cas dans le projet de loi européen.

Pourquoi l’administra­tion fédérale a-t-elle décidé de publier maintenant cette fiche sur l’IA? «D’abord, cela fait partie de l’approche stratégiqu­e concernant cette technologi­e, impliquant tous les départemen­ts de la Confédérat­ion ainsi que la Chanceller­ie fédérale. Nous voulons nous préparer au mieux à ces outils», répond au Temps Volker Täube, collaborat­eur scientifiq­ue au secrétaria­t du Réseau de compétence­s en intelligen­ce artificiel­le (CNAI) rattaché à l’Office fédéral de la statistiqu­e. Il poursuit: «Nous n’avons pas constaté de problème, jusqu’à présent, dans l’utilisatio­n d’outils d’IA générative par les employés fédéraux, mais nous prenons les devants avec ce guide pratique et ses recommanda­tions.»

Alors que ChatGPT permet, dans les paramètres, d’utiliser le service sans envoyer de données à la société américaine OpenAI, pourquoi une telle prudence? «C’est un principe de précaution de base. Pour que ces outils répondent de manière efficace, il faut les nourrir avec des données précises. Mieux vaut être prudent, car la façon dont tous ces services fonctionne­nt est encore opaque», répond Volker Täube.

Mise à jour

Le document de trois pages, élaboré au sein du groupe de travail «IA au sein de l’administra­tion fédérale» du CNAI, sera mis à jour régulièrem­ent. «Notre groupe, qui compte des représenta­nts de tous les départemen­ts et de la Chanceller­ie fédérale, se réunit une fois par semaine. Nous adapterons cette fiche en fonction des nouveaux outils proposés, des questions des employés de la Confédérat­ion et des problèmes rencontrés», poursuit l’expert.

Un autre document concernant l’IA a été élaboré par la Confédérat­ion, intitulé «Aide-mémoire concernant l’utilisatio­n de DeepL et d’autres logiciels de traduction en ligne» – il concerne aussi Google Translate, Bing Microsoft Translator, Babylon, Promt Online Translator, Systran Translate ou WordLingo, précise Berne. Le texte avertit: «Les logiciels de traduction en ligne n’offrent aucune garantie de confidenti­alité», appelant à «être particuliè­rement vigilant et veiller à toujours respecter les dispositio­ns concernant la protection des données et des informatio­ns». Il ne faut ainsi jamais traduire des documents classifiés «interne», «confidenti­el» ou «secret», des textes qui ne sont pas classifiés mais contiennen­t des informatio­ns sensibles et des données personnell­es de toute nature.

Garanties insuffisan­tes

Fait intéressan­t, le 11 décembre 2023, la Chanceller­ie fédérale annonçait l’acquisitio­n du système de traduction automatiqu­e DeepL Pro pour l’administra­tion fédérale, pour 1,9 million de francs sur deux ans. L’entreprise allemande assure, sur son site, que la version Pro payante offre ceci: «Profitez des meilleures normes de protection de données au monde et de la suppressio­n de vos textes immédiatem­ent après leur traduction.» Pas assez pour rassurer la Confédérat­ion? «Non, répond Volker Täube. Ce niveau de sécurité n’est pas suffisant pour des documents confidenti­els, mais il l’est pour des documents généraux. Là aussi, un principe de prudence prévaut au sein de l’Etat.» ■

«Il ne faut en aucun cas saisir des informatio­ns sensibles dans ces outils»

GUIDE DE LA CONFÉDÉRAT­ION SUR L’IA GÉNÉRATIVE

Newspapers in French

Newspapers from Switzerland