Los engaños ahora son más fáciles de crear
La tecnología puede poner otras palabras en la boca de estrellas.
muchas de las herramientas para crearlos están disponibles para los consumidores comunes —incluso en aplicaciones para teléfonos inteligentes y, a menudo, por poco o nada de dinero.
Los nuevos videos alterados —en su mayoría, la labor de creadores de memes y mercadotecnistas hasta ahora— se han vuelto virales en los sitios de redes sociales. El contenido funciona al clonar las voces de celebridades, alterar los movimientos de la boca para que coincidan con el audio alternativo y redactar diálogos persuasivos.
Los videos y la tecnología accesible detrás de ellos tienen a algunos investigadores de IA inquietos por sus peligros y han despertado preocupaciones sobre si las empresas de redes sociales están preparadas para moderar la creciente falsificación digital.
Los vigilantes de la desinformación también se están preparando para una ola de falsificaciones digitales que podrían engañar al público o dificultar más saber qué es verdad en línea.
“Lo diferente es que ahora todo mundo puede hacerlo”, dijo Britt Paris, profesora asistente de ciencias de la información en la Universidad de Rutgers, en Nueva Jersey. “No se trata solo de personas con tecnología computacional sofisticada y conocimientos computacionales relativamente sofisticados. En lugar de ello, es una app gratuita”.
Montones de contenido manipulado han circulado en TikTok y en otros lugares durante años, generalmente usando trucos como edición cuidadosa o intercambio de un clip de audio por otro.
Graphika, una firma de investigación que estudia la desinformación, detectó deepfakes de ficticios conductores de noticias que las cuentas de bots proChina distribuyeron a fines del año pasado, en el primer ejemplo conocido del uso de la tecnología para campañas de influencia alineadas con el Estado.
El mes pasado, circuló un video falso que mostraba al presidente Joe Biden declarando una conscripción en Estados Unidos para la guerra entre Rusia y Ucrania. El video fue producido por el equipo detrás de Human Events Daily, un podcast operado por Jack Posobiec, un influencer de derecha conocido por difundir teorías de conspiración.
En un segmento explicando el video, Posobiec dijo que su equipo lo había creado usando tecnología IA. Un tuit sobre el video de The Patriot Oasis, una cuenta conservadora, usó una etiqueta de noticias de última hora sin indicar que el video era falso. El tuit fue visto más de ocho millones de veces.
Muchos de los videoclips con voces sintetizadas parecían usar tecnología de ElevenLabs, una startup estadounidense. En noviembre, la empresa lanzó una herramienta de clonación de voz. Atrajo la atención el mes pasado después de que los usuarios de 4chan, un tablero de mensajes conocido por su contenido racista, usaron la herramienta para crear una grabación de un texto antisemita usando una voz que imitaba a la actriz Emma Watson. ElevenLabs dijo en Twitter que introduciría nuevas medidas de seguridad y proporcionaría una nueva herramienta de detección IA. Pero los usuarios de 4chan dijeron que crearían su propia versión de la tecnología, subiendo demos que suenan similares al audio producido por ElevenLabs.
En un video falso en YouTube, Rogan parecía entrevistar al primer ministro Justin Trudeau de Canadá.
Una vocera de YouTube dijo que el video de Rogan y Trudeau no violaba las políticas de la plataforma porque “brinda suficiente contexto”. (El creador lo había descrito como un “video falso”). La compañía dijo que sus políticas de desinformación prohibían el contenido manipulado para engañar, similar a las políticas de otras compañías de redes sociales.
Los reguladores han tardado en responder. Una ley de EE. UU. de 2019 requería que las agencias gubernamentales notificaran al Congreso si los deepfakes tenían como blanco las elecciones en ese país.
“No podemos esperar dos años hasta que se aprueben las leyes”, dijo Ravit Dotan, investigador en la Universidad de Pittsburgh, en Pensilvania. “Para entonces, el daño podría ser demasiado. Tenemos unas próximas elecciones en EE. UU. Va a ser un problema”.