Els principals assistents de veu són piratejables amb ultrasons Es poden controlar a distància amb ordres inoïbles per al seu amo
Un grup d’investigadors de la Universitat de Zhejiang, a la Xina, ha demostrat que els principals assistents de veu –Siri (Apple), Alexa (Amazon), Google Now, Cortana (Microsoft) o HiVoice (Huawei)– es poden piratejar mitjançant ultrasons i aconseguir que facin el que es vulgui: activar la càmera, posar el mode avió, fer trucades, connectar-se a webs, desbloquejar la porta d’una casa bloquejada amb un pany intel·ligent, manipular el sistema de navegació d’un Audi Q3...
Utilitzant una tècnica que denominen DolphinAttack (els dofins senten sons en més freqüències que els éssers humans), els investigadors han comprovat que l’“oïda” d’aquests sistemes de reconeixement de veu és tan sensible que no té problemes a detectar comandos verbals realitzats en freqüències massa altes per ser sentides per l’oïda humana i que en canvi els micròfons dels dispositius sí que capten.
Asseguren que han provat aquests atacs en 16 models de sistemes controlats per veu (VCS en anglès) incloent-hi iPhones, Apple Watch i MacBooks que incorporen Siri, Samsumg Galaxy amb Bixby, altaveus Amazon Echo, ordinadors amb Windows 10 que porten Cortana, i fins i tot automòbils. Les ordres van ser facilitades en anglès, xinès, alemany, francès i espanyol i es va aconseguir un cent per cent d’èxit en tots els atacs realitzats en ambients silenciosos, i el 90% en els practicats en ambients que simulaven sorolls d’oficina i del carrer, on no va ser possible aconseguir accions complexes com videotrucades.
“Es tracta d’un atac que aparentment és molt senzill i molt perillós i que no sembla de solució fàcil ni ràpida ”, valora Luis Corrons, director tècnic de PandaLabs, de Panda Security. I apunta que com a expert en seguretat li sorgeix el dubte de si els altaveus dels mòbils i altres dispositius connectats també tindran la capacitat de reproduir aquests ultrasons, perquè en aquest cas els assistents de veu es podrien manipular enviant ordres inoïbles camuflades en missatges o vídeos, sense necessitat d’acostar-se al dispositiu com sí que necessitaven les proves realitzades pels investigadors de la Xina (la distància màxima per al DolphinAttack variava entre 2 i 175 centímetres, segons els dispositius: mentre que en els últims iPhone, Google Now o Cortana l’atac només funciona a pocs centímetres, l’altaveu Amazon Echo o l’Apple Watch es van poder manipular des de més d’un metre de distància).
La vulnerabilitat revelada per aquests investigadors té una gran transcendència perquè els assistents de veu són un dels desenvolupaments en què ara es focalitzen les empreses tecnològiques, en especial les dedicades a telefonia mòbil, i sobre els quals s’han posat moltes expectatives per impulsar la internet de les coses i les llars intel·ligents.
“Controlar diferents dispositius des de l’assistent del mòbil o des d’un altaveu pot resultar molt còmode, però cal ser conscient i prendre en consideració els riscos que implica, i en aquest sentit el treball dels investigadors de Zhejiang és una demostració més de com aquestes noves tecnologies poden ser utilitzades sense el nostre consentiment per un element extern”, adverteix l’especialista de Panda Security.
Quant a les possibles solucions, alguns experts apunten que els desenvolupadors podrien ajustar els assistents perquè ignorin les sol·licituds que rebin en freqüències altes, encara que això podria reduir l’efectivitat a l’hora de reconèixer totes les veus.
EL DOLPHINATTACK Modula les ordres de veu en ultrasons per fer-les imperceptibles per l’oïda humana
EFECTIVITAT
L’atac es va provar amb èxit en 16 models i en anglès, xinès, alemany, francès i castellà