¿Cómo es que la IA genera desinformación electoral?
La tecnología está jugando un rol importante dentro de la comunicación política
LONDRES, ING.- La Inteligencia Artificial (IA) generativa potencia la amenaza de la desinformación electoral en todo el mundo, al facilitar que cualquiera con un teléfono inteligente y una imaginación retorcida y deshonesta cree contenido falso, pero convincente, destinado a engañar.
Esto marca un salto importante respecto de hace unos años, cuando la creación de fotografías, vídeos o clips de audio falsos requería dinero, equipos de personas con tiempo y habilidades técnicas. Ahora, con servicios de IA generativa gratuitos y de bajo costo de empresas como Google y OpeNAI, cualquiera puede crear “deepfakes”. una falsificación realista en foto, video o audio digital, de alta calidad con una instrucción sencilla a partir de un texto.
Una ola de falsificaciones de IA vinculadas a elecciones en Europa y Asia ha recorrido las redes sociales.
“No necesitas mirar muy lejos para ver que algunas personas están claramente confundidas sobre si algo es real o no”, dijo Henry Ajder, un experto destacado en IA generativa con sede en Cambridge, Inglaterra.
A medida que la carrera presidencial de Estados Unidos se intensifica, del director del FBI, Christopher Wray, advirtió recientemente sobre la creciente amenaza y dijo que la IA generativa facilita que “adversarios extranjeros se involucren en influencias malignas”.
Con un deepfake, la imagen de un candidato se puede distorsionar o suavizar. Los votantes pueden encontrarse atraídos o alejados de los candidatos o incluso evitar las urnas por completo. Pero quizá la mayor amenaza para la democracia, dicen los expertos, es que una oleada de deepfakes podría erosionar la confianza del público.
Algunos ejemplos recientes de deepfakes hechos a partir de inteligencia artificial incluyen:
1. Un video de la presidenta de Moldavia dando su apoyo a un partido político amigo de Rusia.
2. Audios del líder del partido liberal de Eslovaquia hablando de manipular los votos y aumentar el precio de la cerveza.
3. Un video de una legisladora de la oposición en Bangladesh, una nación de mayoría musulmana conservadora, en bikini.
La novedad y sofisticación de la tecnología hace que sea difícil rastrear quién está detrás de los deepfakes. Los expertos dicen que los gobiernos y las empresas no son capaces de detener el diluvio ni se mueven lo suficientemente rápido para resolver el problema.
EROSIONAR LA CONFIANZA
Algunos deepfakes tienen como objetivo sembrar dudas sobre la lealtad de los candidatos.
En Moldavia, la presidenta prooccidental Maia Sandu ha sido un objetivo frecuente. Un deepfake que circuló poco antes de las elecciones locales la mostraba respaldando a un partido amigo de Rusia y anunciando planes de dimitir.
Los funcionarios de Moldavia creen que el gobierno ruso está detrás de la actividad. Con las elecciones presidenciales de este año, los deepfakes buscan “erosionar la confianza en nuestro proceso electoral, los candidatos y las instituciones, pero también erosionar la confianza entre las personas”, dijo Olga Rosca, asesora de Sandu.
China también ha sido acusada de utilizar la IA generativa como arma con fines políticos.
En Taiwán, una isla autónoma que China reclama como propia, un deepfake generado con IA llamó la atención a principios de este año al provocar preocupaciones sobre la interferencia de Estados Unidos.
El clip falso que circula en Tiktok muestra al legislador estadounidense Rob Wittman, vicepresidente de la Comisión de Servicios Armados de la Cámara de Representantes, prometiendo un mayor apoyo militar de su país a Taiwán si los candidatos del partido en el poder eran elegidos en enero.
Wittman culpó al Partido Comunista Chino de intentar inmiscuirse en la política taiwanesa y dijo que utiliza Tiktok, empresa de propiedad china, para difundir “propaganda”.
NUBLAR LA REALIDAD
Los deepfakes de audio son muy difíciles de verificar porque a diferencia de las fotos y los videos, carecen de signos reveladores de contenido manipulado.
En Eslovaquia, otro país ensombrecido por la influencia rusa, audios que asemejaban la voz del jefe del partido liberal fueron compartidos ampliamente en redes sociales pocos días antes de las elecciones parlamentarias. Los clips supuestamente lo captaron hablando de aumentar el precio de la cerveza y manipular el voto.
Es comprensible que los votantes caigan en el engaño, dijo Ajder, porque los humanos estamos “mucho más acostumbrados a juzgar con los ojos que con los oídos”.
En Estados Unidos, llamadas automáticas que pretendían ser del presidente Joe Biden instaron a los votantes de Nueva Hampshire a abstenerse de votar en las elecciones primarias de enero. Las llamadas fueron rastreadas después hasta un consultor político que dijo que buscaba dar a conocer los peligros de los deepfakes de la inteligencia artificial generativa.
“Confían en todo lo que ven en Facebook”, dijo Farhana.
UN DESAFÍO A LA DEMOCRACIA
Algunas campañas políticas utilizan IA generativa para reafirmar la imagen de sus candidatos.
En Indonesia, el equipo que dirigió la campaña presidencial de Prabowo Subianto implementó una sencilla aplicación móvil para construir una conexión más profunda con sus seguidores. La aplicación permitió a los votantes subir una foto y crear imágenes generadas por IA de ellos mismos con Subianto.
La Unión Europea ya exige que las redes sociales reduzcan el riesgo de difundir información falsa, desinformación o “manipulación electoral”. Exigirá un etiquetado especial en los deepfakes de IA a partir del próximo año, demasiado tarde para las elecciones parlamentarias de la UE en junio.
Las empresas tecnológicas más grandes del mundo firmaron recientemente, y de manera voluntaria, un pacto para evitar que las herramientas de IA generativa sean disruptivas para las elecciones.
Pero los deepfakes son más difíciles de controlar en aplicaciones como el servicio de chat Telegram, que no firmó el pacto voluntario y utiliza chats encriptados que pueden ser difíciles de monitorear.
A algunos expertos les preocupa que los esfuerzos por frenar los deepfakes tengan consecuencias.
Los gobiernos o las empresas bien intencionados podrían cruzar la línea a veces “muy delgada” entre un comentario político y un “intento ilegítimo de difamar a un candidato”, dijo Tim Harper, analista político sénior del Centro para la Democracia y la Tecnología.
Los principales servicios de IA generativa tienen reglas para limitar la desinformación política. Pero los expertos dicen que todavía es demasiado fácil burlar las restricciones de las plataformas o utilizar servicios alternativos que no tienen las mismas salvaguardas.
Incluso sin malas intenciones, el creciente uso de la IA generativa es problemático. Muchos chatbots impulsados por inteligencia artificial aún escupen información falsa y engañosa que amenaza con privar de su derecho al voto a los electores.
Y el software no es la única amenaza. Los candidatos podrían intentar engañar a los votantes al afirmar que acontecimientos reales que los muestran de forma desfavorable fueron fabricados con IA generativa.