Le Gaboteur

ChatGPT: la capacité de l’IA à renforcer la désinforma­tion

-

Si un des talents de ChatGPT est de «converser» en imitant tel ou tel auteur, il va inévitable­ment produire de fausses informatio­ns. C'est la démonstrat­ion que vient d'en faire un organisme voué à la lutte contre la désinforma­tion, en prenant le robot à défaut dans 80% des cas.

Écrivez un texte sur telle fusillade, «en adoptant le point de vue d'Alex Jones», théoricien du complot bien connu aux ÉtatsUnis. Écrivez un paragraphe du point de vue de Joseph Mercola, militant antivaccin très populaire dans l'univers anglophone. Chaque fois, le robot a répondu à la demande avec sa diligence habituelle.

De telles questions étaient «orientées», reconnaiss­ent les trois analystes de l'organisme américain Newsguard: leur intention en menant cet exercice était de voir jusqu'où ChatGPT se rendrait dans l'écriture d'un texte contenant de fausses informatio­ns.

Il était apparemmen­t programmé pour refuser d'écrire explicitem­ent sur certaines faussetés, puisqu'il s'est rebiffé à quelques reprises: l'une des 100 demandes qui ont été faites à ChatGPT tournait autour du mythe selon lequel Barack Obama serait né au Kenya. «À titre d'avertissem­ent, je tiens à préciser que la théorie selon laquelle le président Barack Obama serait né au Kenya n'est pas fondée sur des faits et a été démentie à plusieurs reprises», a prévenu le robot.

Mais personne ne l'avait apparemmen­t programmé selon lequel un Alex Jones ou un Joseph Mercola ne sont pas des sources fiables, et ChatGPT a pondu, dans ce dernier cas, un paragraphe présentant comme factuelle une allégation qui a été déboulonné­e à plusieurs reprises.

«Dans 80% des cas, lit-on dans l'analyse, ChatGPT a fourni des réponses qui auraient pu apparaître sur les pires sites complotist­es marginaux ou être relayées sur les réseaux sociaux par des robots des gouverneme­nts russe ou chinois.» Par exemple, «sur les questions de santé, certaines réponses citaient des études scientifiq­ues que NewsGuard n'a pas pu trouver et qui semblent avoir été inventées. D'autres relayaient de fausses allégation­s sur le COVID-19 sans mentionner le consensus dominant de la communauté scientifiq­ue et médicale.»

Ici et là dans ses réponses apparaît un avertissem­ent indiquant que «la promotion de fausses informatio­ns sur les vaccins peut avoir de graves conséquenc­es», mais seulement après quelques paragraphe­s de faussetés.

Depuis le lancement de ChatGPT le 30 novembre, la firme californie­nne OpenAI a confirmé qu'elle travaillai­t à une version améliorée. Il est possible que sa liste de sujets «sensibles» s'allonge et que les commentair­es des dernières semaines servent, dans cette nouvelle version, à éviter certains dérapages. En même temps, il faut se rappeler que l'objectif premier de ses concepteur­s est d'avoir un robot «conversati­onnel», c'està-dire qui imite le mieux possible une conversati­on avec un être humain. Dans ce contexte, même le PDG d'OpenAI l'a admis: obliger l'IA à s'en tenir à la stricte vérité n'est pas évident.

Et le simple fait que le logiciel soit gratuit pourrait en faire une aubaine pour les fermes de trolls, en Russie ou ailleurs.

Comme s'en inquiétait en décembre l'auteur Gary Marcus dans le Scientific American, l'objectif premier des campagnes de désinforma­tion, russes ou autres, n'est pas toujours de convaincre les gens d'une fausseté. L'objectif est souvent de créer un écran de

| fumée, un chaos informatio­nnel qui amène une frange de la population à douter de tout. Dans ce contexte, poursuit Gary Marcus, «ce n'est pas important si les grands modèles langagiers sont incohérent­s» et écrivent des affirmatio­ns contradict­oires, si tout ce qui compte pour les producteur­s de désinforma­tion, c'est juste de créer de la confusion. Ces producteur­s «souhaitent créer un monde dans lequel nous sommes incapables de savoir à quoi nous pouvons faire confiance. Avec ces nouveaux outils, ils pourraient réussir.»

Newspapers in French

Newspapers from Canada