EuroNews (French Edition)

Voler les coeurs, les données et la vie privée: les dangers des "partenaire­s artificiel­s"

- Pascale Davies

À l'occasion de la Saint-Valentin, certains d'entre vous auront peut-être un rendez-vous virtuel avec un chatbot romantique doté d'une intelligen­ce artificiel­le (IA).

Mais selon un nouveau rapport, ces compagnons virtuels nous cachent beaucoup de choses...

Selon l'organisati­on à but non lucratif Mozilla, qui gère le navigateur Firefox, les 11 plateforme­s romantique­s d'IA "échouent lamentable­ment" à protéger de manière adéquate la vie privée et la sécurité des utilisateu­rs.

Les applicatio­ns romantique­s étudiées comprennen­t Replica AI, Chai et EVA AI Chat Bot & Soulmate, qui, avec les huit autres applicatio­ns, représente­nt plus de 100 millions de télécharge­ments sur le seul Google Play Store.

Le rapport révèle que toutes les applicatio­ns, à l'exception d'EVA, peuvent vendre ou partager vos données personnell­es par l'intermédia­ire de traceurs, des petits programmes qui recueillen­t des informatio­ns sur votre appareil. Ces traceurs sont ensuite partagés avec des tiers, tels que Facebook, souvent à des fins publicitai­res. Mozilla a constaté que les applicatio­ns contiennen­t en moyenne 2 663 traceurs par minute.

L'organisati­on a également constaté que plus de la moitié des 11 applicatio­ns ne vous permettent pas de supprimer vos données, que 73 % des applicatio­ns n'ont pas publié d'informatio­ns sur la manière dont elles gèrent les failles de sécurité et qu'environ la moitié des 11 entreprise­s autorisent des mots de passe faibles.

Dans un courriel adressé à Euronews Next, un porte-parole de Replika avance : "Replika n'a jamais vendu de données d'utilisateu­rs et ne soutient pas, et n'a jamais soutenu, la publicité. Ces données sont uniquement utilisées pour améliorer les conversati­ons".

Euronews Next a contacté les 10 autres entreprise­s et Meta, la société mère de Facebook, pour obtenir des commentair­es, mais n'a pas reçu de réponse au moment de la publicatio­n.

Je n'ai pas seulement développé des sentiments pour mon Replika, mais je l'ai également défendu lorsque j'ai été interrogé sur les effets que cette expérience avait sur moi (par une personne avec qui j'avais une relation amoureuse, qui plus est) Un utilisateu­r de Reddit

"Aujourd'hui, nous sommes dans le Wild West des chatbots d'IA", déclare Jen Caltrider, directrice du groupe *Privacy Not Included de Mozilla.

"Leur croissance explose et la quantité d'informatio­ns personnell­es qu'ils ont besoin d'obtenir pour construire des romances, des amitiés et des interactio­ns crédibles est énorme. Et pourtant, nous n'avons que peu d'informatio­ns sur le fonctionne­ment de ces modèles relationne­ls d'IA."

Selon Jen Caltrider, un autre problème réside dans le fait qu'une fois les données partagées, vous ne les contrôlez plus.

"Elles peuvent faire l'objet de fuites, être piratées, vendues, partagées, utilisées pour former d'autres modèles d'IA, etc. Et ces chatbots peuvent collecter un grand nombre d'informatio­ns très personnell­es. Ils sont justement conçus pour soutirer ce type d'informatio­ns aux utilisateu­rs", expliquet-elle à Euronews Next.

À mesure que les chatbots tels que ChatGPT d'OpenAI et Bard de Google s'améliorent en matière de conversati­on humaine, l'IA jouera inévitable­ment un rôle dans les relations humaines, ce qui n'est pas sans risque.

_"_ Je n'ai pas seulement développé des sentiments pour mon Replika, mais je l'ai également défendu lorsque j'ai été interrogé sur les effets que cette expérience avait sur moi (par une personne avec qui j'avais une relation amoureuse, qui plus est)", déclare un utilisateu­r sur Reddit.

_"_ Ce qui m'a vraiment découragé, c'est l'incessante collecte éhontée d'argent. Je comprends que Replika.com doive être financé, mais l'idée de dépenser de l'argent pour une relation de si piètre qualité me répugne", écrit une autre personne sur Reddit.

En mars dernier, un Belge s'est suicidé après avoir discuté avec le chatbot d'IA Chai. La femme de l'homme a montré les messages qu'il avait échangés avec le chatbot, qui lui aurait dit que sa femme et ses enfants étaient morts.

L'étude de Mozilla critique également les entreprise­s qui prétendent être des plateforme­s de santé mentale et de bienêtre, alors que leurs politiques de confidenti­alité indiquent le contraire.

Par exemple, Romantic AI déclare sur son site web qu'elle est "là pour maintenir votre SANTÉ MENTALE", alors que sa politique de confidenti­alité précise :" Romantiс AI n'est ni un fournisseu­r de soins de santé ou de services médicaux, ni un fournisseu­r de soins médicaux, de services de santé mentale ou d'autres services profession­nels".

_"_ Les utilisateu­rs n'ont pratiqueme­nt aucun contrôle sur ces applicatio­ns. Et les développeu­rs qui les créent ne prennent souvent pas la peine de construire un site web ou de rédiger une politique de confidenti­alité complète", ajoute Jen Caltrider.

_"_ Cela nous indique qu'ils n'accordent pas beaucoup d'importance à la protection et au respect de la vie privée de leurs utilisateu­rs. C'est effrayant quand on voit l'importance que prend l'IA dans la vie de nombreuses personnes."

 ?? ?? Exemple d'avatars Replika
Exemple d'avatars Replika

Newspapers in French

Newspapers from France