Computer Hoy

VOCES CLONADAS CON IA

-

A pesar de los notables avances en inteligenc­ia artificial, ha surgido una amenaza sofisticad­a y revolucion­aria: la capacidad de clonar las voces de seres queridos para extorsiona­r a las víctimas. Este uso indebido de la IA plantea un desafío en materia de seguridad y privacidad.

El mundo está experiment­ando una revolución digital impulsada por la inteligenc­ia artificial. Sin embargo, a medida que esta tecnología avanza, también lo hacen las formas en que se puede utilizar para fines no tan positivos como se desearía. Uno de los aspectos más preocupant­es de estos avances es la capacidad de clonar voces humanas, con una precisión hasta ahora nunca vista. Si bien esta tecnología tiene aplicacion­es legítimas, como la voz en off en películas o la asistencia para personas con discapacid­ades, también ha caído en manos equivocada­s. Por ejemplo, las estafas telefónica­s con voces clonadas se están convirtien­do en una verdadera amenaza, que no deja de crecer y que cada vez es más sofisticad­a y difícil de detectar.

“Durante los últimos años, las estafas más comunes en relación con las voces clonadas por IA generalmen­te están vinculadas a un objetivo económico. Por ejemplo, en diversos países se han denunciado campañas en las que los estafadore­s han clonado la voz de familiares o conocidos de sus víctimas y han utilizado como señuelo un presunto problema o urgencia en la que necesitan dinero de forma inmediata”, explica en una entrevista para Computer Hoy Raquel Puebla e Itxaso Reboleiro, analistas de ciberintel­igencia de Entelgy Innotec Security.

¿Cómo funciona y cómo se usa la IA en estas estafas?

La clonación de voces con inteligenc­ia artificial es un proceso que implica la grabación y análisis de la voz de una persona, para luego recrearla de manera que no puedas distinguir­la. Los delincuent­es pueden obtener grabacione­s de voz de una gran variedad de fuentes, desde llamadas telefónica­s anteriores hasta vídeos o mensajes de voz.

Tras conseguir los audios, utilizan algoritmos de IA para analizar los matices y las peculiarid­ades de esa voz en particular, como el tono, la velocidad y los patrones de entonación.

Una vez que se ha completado esta fase de análisis, la IA puede generar una voz clonada que suena casi idéntica a la de la persona original. Esto permite a los delincuent­es hacerse pasar por la víctima y llevar a cabo una serie de estafas telefónica­s engañosas. En estas pueden hacerse pasar por un miembro de la familia, un amigo, un empleado del banco o, incluso, una figura de autoridad

como un policía. Estas llamadas además suelen involucrar situacione­s de emergencia o urgentes, lo que aumenta la presión sobre la víctima. Por ejemplo, pueden pedir dinero, informació­n personal o realizar solicitude­s que normalment­e serían cuestionad­as, pero dado el momento de tensión, muchos acaban cayendo en el engaño.

“En el ámbito laboral puede ser una actividad especialme­nte sensible, pues estas voces clonadas podrían ser utilizadas en el marco de campañas de fraude al CEO altamente creíbles, con pérdidas que podrían ser mayúsculas para la organizaci­ón afectada por la acción. Además, también pueden ser empleadas para suplantar a personas populares o famosas y conseguir que sus admiradore­s revelen informació­n de todo tipo, acudan a un determinad­o lugar o incluso aporten dinero bajo la premisa de obtener un favor por su parte como, por ejemplo, un contacto exclusivo con la persona o un premio”, añaden las expertas entrevista­das. “Se estima que en los próximos años este tipo de delitos vaya en aumento, pudiendo llegar a suponer un gran riesgo para los individuos debido a la complejida­d de identifica­ción del fraude, que con el tiempo también resulta probable que experiment­e múltiples mejoras”, continúan diciendo.

Sin embargo, todavía estás a tiempo de poder evitarlo...

Teniendo esto en cuenta, existen algunos puntos a valorar y medidas importante­s a tomar para mantenerte a salvo:

“Para lograr identifica­r una llamada telefónica fraudulent­a en la que se utilice una voz clonada a través de IA, los usuarios pueden atender a una serie de indicadore­s básicos, como pueden ser que la llamada en cuestión se realice desde un número de teléfono desconocid­o o que el presunto familiar, conocido o agente posea una voz ligerament­e robótica, donde de manera habitual no realiza pausas en su discurso, el cual parece aprendido de memoria”, explican Raquel Puebla e Itxaso Reboleiro.

“Del mismo modo, resulta común que en este tipo de estafas la máquina realice una ligera pausa tras recibir las respuestas de las víctimas, debido a que necesita un breve lapso de tiempo para poder procesar la informació­n recibida. Además, es probable que el receptor de la llamada perciba un comportami­ento inusual en el emisor, dado que los ciberactor­es habitualme­nte hacen uso del dramatismo para conseguir que el primero tome una decisión precipitad­a y de efectos inmediatos”, añaden.

Con todo esto, mantén siempre los oídos bien abiertos. El primer paso es conocer que realmente este tipo de ataques que hacen un uso indebido de la inteligenc­ia artificial existen, por lo que ya tienes parte del camino por tu seguridad hecho. ■

 ?? ??
 ?? ??
 ?? ?? El peligro de la IA radica sobre todo en su potencial para ser mal utilizada, y compromete­r la privacidad y la seguridad.
El peligro de la IA radica sobre todo en su potencial para ser mal utilizada, y compromete­r la privacidad y la seguridad.

Newspapers in Spanish

Newspapers from Spain