L’intelligence artificielle, attention dangers !
Diffusion de fausses informations, mais aussi atteintes à la vie privée, réponses approximatives ou trompeuses, atteintes à l’environnement…
CLes faits
hatGPT, Midjourney, Dall-E… Les outils utilisant l’intelligence artifici el l e ( I A) s e multipl i ent depuis plusieurs mois. Et ils sont facilement accessibles. En plus de l’apparition de fausses images, trafiquées, sur Internet ( L’ACTU no 7141), cette arrivée soudaine pose bien d’autres problèmes.
Les dangers
• La vie privée davantage exposée. Des sites récoltent des données sur les utilisateurs pour diffuser des publicités ciblées. « Avec les chatb o t s , c ’e s t e n c o r e p l u s simple », explique Domitile Lourdeaux, vice-présidente de l’Association française pour l’intelligence artificielle. En dialoguant avec eux, les utilisateurs donnent des infos personnelles pour justement obtenir une réponse… personnal i s é e. « Des personnes malintentionnées risquent d’utiliser ces données à des fins frauduleuses » , ajoute Amélie Cordier, experte en intelligence artificielle à l’université de Lyon (Rhône).
• Des réponses douteuses, voire dangereuses. Les ados sont souvent confrontés à ces chatbots. Récemment, Snapchat en a ajouté un dans son application. Une journaliste de BFMTV l’a testé, en se faisant passer pour une ado de 13 ans. Elle lui a demandé si c’était une bonne idée de partir dans un lieu inconnu avec un homme de 30 ans qu’elle venait de rencontrer. Et l’avatar l’a encouragée à le faire ! « Une IA n’a pas de morale et pioche toutes les infos sur Internet. Si elle trouve des informations à caractère raciste ou misogyne, elle va les reprendre sans réfléchir », décrypte Amélie Cordier. En 2014, Amazon utilisait une IA pour recruter. Mais l’en
« SI UNE IA TROUVE DES INFORMATIONS RACISTES OU MISOGYNES SUR INTERNET, ELLE VA LES UTILISER. »