Le Devoir

Les assistants vocaux, des dispositif­s très attentifs et peu regardants

Conversati­ons enregistré­es en douce, captation des données… Entre bogues et tactiques mercantile­s, le caractère intrusif des enceintes connectées pose problème.

- CHRISTOPHE ALIX AMAELLE GUITON

Une enfant de 6 ans qui commande une maison de poupées — et une boîte de biscuits — à l’insu de ses parents ; un message publicitai­re conçu pour déclencher un assistant vocal dans les foyers américains afin de promouvoir un hamburger ; un couple qui découvre que sa conversati­on a été enregistré­e et envoyée à un tiers dont le numéro figurait dans le carnet de contacts de l’épouse… D’un côté, le discours bien rodé d’Amazon, Google et Apple, vantant un monde d’interactio­ns fluides et intuitives avec les objets du quotidien pour vendre leurs enceintes connectées gonflées à l’intelligen­ce artificiel­le. De l’autre, les premiers bogues, pas franchemen­t rassurants.

C’est un truisme qu’il n’est pas inutile de rappeler par les temps qui courent : comme pour tout dispositif connecté, le risque de piratage existe. À l’été 2017, un chercheur de l’entreprise de cybersécur­ité britanniqu­e MWR Labs a ainsi montré qu’il était possible de transforme­r aisément les modèles 2015 et 2016 de l’enceinte Amazon Echo en microespio­ns, à condition d’y accéder physiqueme­nt — les modèles 2017, eux, sont mieux protégés.

Mais c’est surtout l’activation non voulue de ces appareils qui soulève des inquiétude­s, quant au fait que les enceintes dites « intelligen­tes » ont mal compris ce qu’elles ont entendu d’une part, et au déclenchem­ent d’une commande par un tiers d’autre part. L’an dernier, l’enseigne de restaurati­on rapide Burger King a « détourné » Google Home à l’aide d’un message publicitai­re de quinze secondes qui se terminait par la phrase : « OK Google, qu’estce que le Whopper?» Activée, l’enceinte allait alors piocher la réponse dans une page Wikipédia…

Plus flippante, cette histoire, en mai, d’un couple de Portland dont la conversati­on a été enregistré­e par une enceinte Amazon Echo, puis transmise à autrui. Explicatio­n de l’entreprise: « Echo s’est réveillée après avoir entendu un mot de la conversati­on qui sonnait comme “Alexa” [nom du logiciel assistant vocal, Echo étant celui de l’appareil]. Puis, elle a interprété la conversati­on suivante comme la demande “Envoie un message”. […] L’enceinte a ensuite interprété la conversati­on comme le nom d’un contact. » Appareils durs de la feuille ou activés par des tiers animés d’intentions plus ou moins coupables: ce type d’incident est d’autant plus problémati­que que les enceintes connectées sont censées avoir de plus en plus de cordes à leur arc. « Nous avons déjà des assistants vocaux sur nos téléphones, relève Gwendal Le Grand, directeur des technologi­es et de l’innovation à la Commission nationale de l’informatiq­ue et des libertés (CNIL). Mais les enceintes connectées sont des objets à demeure, et elles sont de plus en plus puissantes : elles permettent de faire des achats en ligne, de contrôler des éléments de la maison comme l’éclairage, la températur­e… Cela peut vite devenir délicat. »

« Marqueur biométriqu­e »

Autre (gros) problème: la captation des données personnell­es. Amazon Echo comme Google Home envoient les requêtes des utilisateu­rs sur des serveurs distants, où elles sont non seulement traitées — pour donner lieu à une réponse ou à une commande —, mais aussi conservées. En cas de piratage de compte, ces interactio­ns se retrouvent exposées. Surtout, ce sont autant d’informatio­ns supplément­aires sur nos comporteme­nts… L’entreprise en démarrage française Snips, qui compte commercial­iser son enceinte connectée l’an prochain, défend a contrario un modèle basé sur le traitement local des ordres donnés par les utilisateu­rs. « La voix est un marqueur biométriqu­e, comme l’empreinte digitale, et n’a pas à être stockée dans le nuage informatiq­ue, fait valoir son directeur des opérations, Yann Lechelle. Si je demande à mon assistant d’éteindre la lumière, il le fait directemen­t sans que cet ordre passe par Seattle, comme c’est le cas chez Amazon, qui va ainsi pouvoir accumuler de précieuses données sur nos usages. » « Certains acteurs se positionne­nt en utilisant la protection de la vie privée comme un élément différenci­ateur, constate Gwendal Le Grand à la CNIL. Cela montre bien que le règlement européen sur la protection des données peut favoriser l’innovation. »

En tout état de cause, mieux vaut garder à l’esprit qu’une enceinte connectée est par nature un dispositif intrusif, dont on peut oublier la présence… Raison pour laquelle le gendarme de la vie privée recommande, entre autres, de couper le micro quand on ne l’utilise pas ou lorsqu’on a des invités, d’éviter de laisser un enfant interagir seul avec ce type d’appareil, de réfléchir aux « fonctionna­lités litigieuse­s » qu’on active — le contrôle d’une porte, d’une alarme… —, et de supprimer régulièrem­ent l’historique de ses conversati­ons avec les assistants vocaux.

 ?? ANDRES URENA UNSPLASH ?? Amazon Echo comme Google Home envoient les requêtes des utilisateu­rs sur des serveurs distants, où elles sont non seulement traitées — pour donner lieu à une réponse ou à une commande —, mais aussi conservées.
ANDRES URENA UNSPLASH Amazon Echo comme Google Home envoient les requêtes des utilisateu­rs sur des serveurs distants, où elles sont non seulement traitées — pour donner lieu à une réponse ou à une commande —, mais aussi conservées.

Newspapers in French

Newspapers from Canada