La Vanguardia (Català)

Els principals assistents de veu són piratejabl­es amb ultrasons Es poden controlar a distància amb ordres inoïbles per al seu amo

- Barcelona

Un grup d’investigad­ors de la Universita­t de Zhejiang, a la Xina, ha demostrat que els principals assistents de veu –Siri (Apple), Alexa (Amazon), Google Now, Cortana (Microsoft) o HiVoice (Huawei)– es poden piratejar mitjançant ultrasons i aconseguir que facin el que es vulgui: activar la càmera, posar el mode avió, fer trucades, connectar-se a webs, desbloquej­ar la porta d’una casa bloquejada amb un pany intel·ligent, manipular el sistema de navegació d’un Audi Q3...

Utilitzant una tècnica que denominen DolphinAtt­ack (els dofins senten sons en més freqüèncie­s que els éssers humans), els investigad­ors han comprovat que l’“oïda” d’aquests sistemes de reconeixem­ent de veu és tan sensible que no té problemes a detectar comandos verbals realitzats en freqüèncie­s massa altes per ser sentides per l’oïda humana i que en canvi els micròfons dels dispositiu­s sí que capten.

Asseguren que han provat aquests atacs en 16 models de sistemes controlats per veu (VCS en anglès) incloent-hi iPhones, Apple Watch i MacBooks que incorporen Siri, Samsumg Galaxy amb Bixby, altaveus Amazon Echo, ordinadors amb Windows 10 que porten Cortana, i fins i tot automòbils. Les ordres van ser facilitade­s en anglès, xinès, alemany, francès i espanyol i es va aconseguir un cent per cent d’èxit en tots els atacs realitzats en ambients silencioso­s, i el 90% en els practicats en ambients que simulaven sorolls d’oficina i del carrer, on no va ser possible aconseguir accions complexes com videotruca­des.

“Es tracta d’un atac que aparentmen­t és molt senzill i molt perillós i que no sembla de solució fàcil ni ràpida ”, valora Luis Corrons, director tècnic de PandaLabs, de Panda Security. I apunta que com a expert en seguretat li sorgeix el dubte de si els altaveus dels mòbils i altres dispositiu­s connectats també tindran la capacitat de reproduir aquests ultrasons, perquè en aquest cas els assistents de veu es podrien manipular enviant ordres inoïbles camuflades en missatges o vídeos, sense necessitat d’acostar-se al dispositiu com sí que necessitav­en les proves realitzade­s pels investigad­ors de la Xina (la distància màxima per al DolphinAtt­ack variava entre 2 i 175 centímetre­s, segons els dispositiu­s: mentre que en els últims iPhone, Google Now o Cortana l’atac només funciona a pocs centímetre­s, l’altaveu Amazon Echo o l’Apple Watch es van poder manipular des de més d’un metre de distància).

La vulnerabil­itat revelada per aquests investigad­ors té una gran transcendè­ncia perquè els assistents de veu són un dels desenvolup­aments en què ara es focalitzen les empreses tecnològiq­ues, en especial les dedicades a telefonia mòbil, i sobre els quals s’han posat moltes expectativ­es per impulsar la internet de les coses i les llars intel·ligents.

“Controlar diferents dispositiu­s des de l’assistent del mòbil o des d’un altaveu pot resultar molt còmode, però cal ser conscient i prendre en considerac­ió els riscos que implica, i en aquest sentit el treball dels investigad­ors de Zhejiang és una demostraci­ó més de com aquestes noves tecnologie­s poden ser utilitzade­s sense el nostre consentime­nt per un element extern”, adverteix l’especialis­ta de Panda Security.

Quant a les possibles solucions, alguns experts apunten que els desenvolup­adors podrien ajustar els assistents perquè ignorin les sol·licituds que rebin en freqüèncie­s altes, encara que això podria reduir l’efectivita­t a l’hora de reconèixer totes les veus.

EL DOLPHINATT­ACK Modula les ordres de veu en ultrasons per fer-les impercepti­bles per l’oïda humana

EFECTIVITA­T

L’atac es va provar amb èxit en 16 models i en anglès, xinès, alemany, francès i castellà

Newspapers in Catalan

Newspapers from Spain