INDISCRETS, LES ASSISTANTS ?
Puisque les assistants vocaux attendent un mot-clé pour fonctionner, c’est qu’ils sont toujours en éveil. Du coup, et sachant l’appétence des Gafa pour les données personnelles, celle-ci ne céderaient-elles pas à la tentation de nous espionner 24 heures sur 24 ? S’il y a effectivement écoute (automatisée, bien sûr), en principe les sons ne sont pas enregistrés en dehors des plages de dialogue avec l’assistant. En principe car, en réalité, les assistants peuvent réagir, de façon erronée, à des stimulus sonores inappropriés. En 2019 d’ailleurs, il a été prouvé qu’Apple avait embauché des centaines de personnes pour analyser des bribes de conversations et enrichir ses algorithmes… Quant aux dialogues « officiels » avec les assistants, ils sont conservés par les plateformes; en 2018, une « erreur humaine » avait conduit un utilisateur de Google Assistant à télécharger 1700 fichiers… appartenant à un autre utilisateur. Il est en effet possible de consulter ces fichiers conservés, et si
vous le souhaitez de les effacer. Soit via les applications installées sur votre smartphone, soit directement à une adresse web dédiée, du moins pour Amazon (www.amazon.fr/ alexaprivacysettings) et Google Assistant (myactivity.google.com/myactivity). Avec Siri, le contrôle est plus basique : il est juste possible d’effacer l’historique, via l’application (dans Réglages) ou sur votre Mac (dans Préférences Système, cliquez sur Siri, puis sur Supprimer l’historique de Siri et de Dictée sur 6 mois). Après ce délai de 6 mois, si des conversations sont conservées elles le sont – en théorie – de façon anonyme.