L'actu

L’intelligen­ce artificiel­le, attention dangers !

Diffusion de fausses informatio­ns, mais aussi atteintes à la vie privée, réponses approximat­ives ou trompeuses, atteintes à l’environnem­ent…

-

CLes faits

hatGPT, Midjourney, Dall-E… Les outils utilisant l’intelligen­ce artifici el l e ( I A) s e multipl i ent depuis plusieurs mois. Et ils sont facilement accessible­s. En plus de l’apparition de fausses images, trafiquées, sur Internet ( L’ACTU no 7141), cette arrivée soudaine pose bien d’autres problèmes.

Les dangers

• La vie privée davantage exposée. Des sites récoltent des données sur les utilisateu­rs pour diffuser des publicités ciblées. « Avec les chatb o t s , c ’e s t e n c o r e p l u s simple », explique Domitile Lourdeaux, vice-présidente de l’Associatio­n française pour l’intelligen­ce artificiel­le. En dialoguant avec eux, les utilisateu­rs donnent des infos personnell­es pour justement obtenir une réponse… personnal i s é e. « Des personnes malintenti­onnées risquent d’utiliser ces données à des fins frauduleus­es » , ajoute Amélie Cordier, experte en intelligen­ce artificiel­le à l’université de Lyon (Rhône).

• Des réponses douteuses, voire dangereuse­s. Les ados sont souvent confrontés à ces chatbots. Récemment, Snapchat en a ajouté un dans son applicatio­n. Une journalist­e de BFMTV l’a testé, en se faisant passer pour une ado de 13 ans. Elle lui a demandé si c’était une bonne idée de partir dans un lieu inconnu avec un homme de 30 ans qu’elle venait de rencontrer. Et l’avatar l’a encouragée à le faire ! « Une IA n’a pas de morale et pioche toutes les infos sur Internet. Si elle trouve des informatio­ns à caractère raciste ou misogyne, elle va les reprendre sans réfléchir », décrypte Amélie Cordier. En 2014, Amazon utilisait une IA pour recruter. Mais l’en

« SI UNE IA TROUVE DES INFORMATIO­NS RACISTES OU MISOGYNES SUR INTERNET, ELLE VA LES UTILISER. »

 ?? ?? Deux exemples d’utilisatio­n de l’intelligen­ce artificiel­le : le chatbot de Snapchat (dont les réponses ne sont pas forcément judicieuse­s) et le logiciel de conception d’images Midjourney (avec, ici, la fausse arrestatio­n de Donald Trump).
Deux exemples d’utilisatio­n de l’intelligen­ce artificiel­le : le chatbot de Snapchat (dont les réponses ne sont pas forcément judicieuse­s) et le logiciel de conception d’images Midjourney (avec, ici, la fausse arrestatio­n de Donald Trump).

Newspapers in French

Newspapers from Canada