El riesgo de ataques de audio
Los dispositivos de voz pueden recibir órdenes indetectables por el oído humano
El cibercrimen ya es un negocio muy rentable que cuesta más de 400.000 millones de euros al año, y el auge de los dispositivos controlados por voz amplía, según los expertos, las oportunidades de los cibercriminales, que ahora también pueden lanzar ataques de audio.
Si hace un año un grupo de investigadores de la Universidad de Zhejiang, en China, demostraba que los principales asistentes de voz –Siri, Alexa, Google Now, Cortana o HiVoice– podían piratearse mediante ultrasonidos si se estaba cerca del dispositivo, ahora investigadores de Berkeley han publicado un trabajo que demuestra que pueden insertarse órdenes de voz en grabaciones de música, diálogos o vídeos de YouTube para manipular los dispositivos a distancia.
Nicholas Carlini, uno de los autores del estudio, explicó a The New York Times que estas técnicas permiten que mientras una persona escucha una canción o a alguien hablando, el asistente virtual de su móvil o el altavoz inteligente de su hogar reciba la instrucción de agregar algo a sus compras, de enviar mensajes en su nombre, o de activar algún aparato doméstico (cada vez hay más electrodomésticos conectados).
Para estos ataques de audio, se explota la brecha entre el reconocimiento de voz por parte de las personas y de las máquinas. Habitualmente, la inteligencia artificial de reconocimiento de voz traduce cada sonido a una letra, y al final las agrupa en palabras y frases, de modo que al hacer pequeños cambios en los archivos de audio los investigadores pudieron reemplazar algunos sonidos que se suponía que escucharía el sistema de reconocimiento de voz por otro que sabían que las máquinas transcribirían de manera diferente sin que esa alteración sonora fuera detectable por el oído humano.
Pero esta no es la única forma
Los cibercriminales pueden clonar la voz de personas para engañar a máquinas y a seres humanos
en que los ciberdelincuentes pueden llevar a cabo ataques de audio. También se puede robar o clonar la voz de la víctima. Expertos en seguridad informática aseguran que, con el software adecuado, es posible hacer que otra persona suene tan similar a nosotros como para engañar a máquinas y seres humanos y poder suplantarnos. Indican que bastan unos pocos minutos de audio con la voz de la víctima, grabar unas cuantas palabras de sus conversaciones telefónicas, para clonarla.