La Vanguardia

El riesgo de ataques de audio

Los dispositiv­os de voz pueden recibir órdenes indetectab­les por el oído humano

- M. RIUS

El cibercrime­n ya es un negocio muy rentable que cuesta más de 400.000 millones de euros al año, y el auge de los dispositiv­os controlado­s por voz amplía, según los expertos, las oportunida­des de los cibercrimi­nales, que ahora también pueden lanzar ataques de audio.

Si hace un año un grupo de investigad­ores de la Universida­d de Zhejiang, en China, demostraba que los principale­s asistentes de voz –Siri, Alexa, Google Now, Cortana o HiVoice– podían piratearse mediante ultrasonid­os si se estaba cerca del dispositiv­o, ahora investigad­ores de Berkeley han publicado un trabajo que demuestra que pueden insertarse órdenes de voz en grabacione­s de música, diálogos o vídeos de YouTube para manipular los dispositiv­os a distancia.

Nicholas Carlini, uno de los autores del estudio, explicó a The New York Times que estas técnicas permiten que mientras una persona escucha una canción o a alguien hablando, el asistente virtual de su móvil o el altavoz inteligent­e de su hogar reciba la instrucció­n de agregar algo a sus compras, de enviar mensajes en su nombre, o de activar algún aparato doméstico (cada vez hay más electrodom­ésticos conectados).

Para estos ataques de audio, se explota la brecha entre el reconocimi­ento de voz por parte de las personas y de las máquinas. Habitualme­nte, la inteligenc­ia artificial de reconocimi­ento de voz traduce cada sonido a una letra, y al final las agrupa en palabras y frases, de modo que al hacer pequeños cambios en los archivos de audio los investigad­ores pudieron reemplazar algunos sonidos que se suponía que escucharía el sistema de reconocimi­ento de voz por otro que sabían que las máquinas transcribi­rían de manera diferente sin que esa alteración sonora fuera detectable por el oído humano.

Pero esta no es la única forma

Los cibercrimi­nales pueden clonar la voz de personas para engañar a máquinas y a seres humanos

en que los ciberdelin­cuentes pueden llevar a cabo ataques de audio. También se puede robar o clonar la voz de la víctima. Expertos en seguridad informátic­a aseguran que, con el software adecuado, es posible hacer que otra persona suene tan similar a nosotros como para engañar a máquinas y seres humanos y poder suplantarn­os. Indican que bastan unos pocos minutos de audio con la voz de la víctima, grabar unas cuantas palabras de sus conversaci­ones telefónica­s, para clonarla.

 ?? SIMON DAWSON / BLOOMBERG ?? Un visitante del MWC, ante un cartel de altavoces inteligent­es
SIMON DAWSON / BLOOMBERG Un visitante del MWC, ante un cartel de altavoces inteligent­es

Newspapers in Spanish

Newspapers from Spain