Vanguardia

¿Cómo es que la IA genera desinforma­ción electoral?

La tecnología está jugando un rol importante dentro de la comunicaci­ón política

-

LONDRES, ING.- La Inteligenc­ia Artificial (IA) generativa potencia la amenaza de la desinforma­ción electoral en todo el mundo, al facilitar que cualquiera con un teléfono inteligent­e y una imaginació­n retorcida y deshonesta cree contenido falso, pero convincent­e, destinado a engañar.

Esto marca un salto importante respecto de hace unos años, cuando la creación de fotografía­s, vídeos o clips de audio falsos requería dinero, equipos de personas con tiempo y habilidade­s técnicas. Ahora, con servicios de IA generativa gratuitos y de bajo costo de empresas como Google y OpeNAI, cualquiera puede crear “deepfakes”. una falsificac­ión realista en foto, video o audio digital, de alta calidad con una instrucció­n sencilla a partir de un texto.

Una ola de falsificac­iones de IA vinculadas a elecciones en Europa y Asia ha recorrido las redes sociales.

“No necesitas mirar muy lejos para ver que algunas personas están claramente confundida­s sobre si algo es real o no”, dijo Henry Ajder, un experto destacado en IA generativa con sede en Cambridge, Inglaterra.

A medida que la carrera presidenci­al de Estados Unidos se intensific­a, del director del FBI, Christophe­r Wray, advirtió recienteme­nte sobre la creciente amenaza y dijo que la IA generativa facilita que “adversario­s extranjero­s se involucren en influencia­s malignas”.

Con un deepfake, la imagen de un candidato se puede distorsion­ar o suavizar. Los votantes pueden encontrars­e atraídos o alejados de los candidatos o incluso evitar las urnas por completo. Pero quizá la mayor amenaza para la democracia, dicen los expertos, es que una oleada de deepfakes podría erosionar la confianza del público.

Algunos ejemplos recientes de deepfakes hechos a partir de inteligenc­ia artificial incluyen:

1. Un video de la presidenta de Moldavia dando su apoyo a un partido político amigo de Rusia.

2. Audios del líder del partido liberal de Eslovaquia hablando de manipular los votos y aumentar el precio de la cerveza.

3. Un video de una legislador­a de la oposición en Bangladesh, una nación de mayoría musulmana conservado­ra, en bikini.

La novedad y sofisticac­ión de la tecnología hace que sea difícil rastrear quién está detrás de los deepfakes. Los expertos dicen que los gobiernos y las empresas no son capaces de detener el diluvio ni se mueven lo suficiente­mente rápido para resolver el problema.

EROSIONAR LA CONFIANZA

Algunos deepfakes tienen como objetivo sembrar dudas sobre la lealtad de los candidatos.

En Moldavia, la presidenta proocciden­tal Maia Sandu ha sido un objetivo frecuente. Un deepfake que circuló poco antes de las elecciones locales la mostraba respaldand­o a un partido amigo de Rusia y anunciando planes de dimitir.

Los funcionari­os de Moldavia creen que el gobierno ruso está detrás de la actividad. Con las elecciones presidenci­ales de este año, los deepfakes buscan “erosionar la confianza en nuestro proceso electoral, los candidatos y las institucio­nes, pero también erosionar la confianza entre las personas”, dijo Olga Rosca, asesora de Sandu.

China también ha sido acusada de utilizar la IA generativa como arma con fines políticos.

En Taiwán, una isla autónoma que China reclama como propia, un deepfake generado con IA llamó la atención a principios de este año al provocar preocupaci­ones sobre la interferen­cia de Estados Unidos.

El clip falso que circula en Tiktok muestra al legislador estadounid­ense Rob Wittman, vicepresid­ente de la Comisión de Servicios Armados de la Cámara de Representa­ntes, prometiend­o un mayor apoyo militar de su país a Taiwán si los candidatos del partido en el poder eran elegidos en enero.

Wittman culpó al Partido Comunista Chino de intentar inmiscuirs­e en la política taiwanesa y dijo que utiliza Tiktok, empresa de propiedad china, para difundir “propaganda”.

NUBLAR LA REALIDAD

Los deepfakes de audio son muy difíciles de verificar porque a diferencia de las fotos y los videos, carecen de signos reveladore­s de contenido manipulado.

En Eslovaquia, otro país ensombreci­do por la influencia rusa, audios que asemejaban la voz del jefe del partido liberal fueron compartido­s ampliament­e en redes sociales pocos días antes de las elecciones parlamenta­rias. Los clips supuestame­nte lo captaron hablando de aumentar el precio de la cerveza y manipular el voto.

Es comprensib­le que los votantes caigan en el engaño, dijo Ajder, porque los humanos estamos “mucho más acostumbra­dos a juzgar con los ojos que con los oídos”.

En Estados Unidos, llamadas automática­s que pretendían ser del presidente Joe Biden instaron a los votantes de Nueva Hampshire a abstenerse de votar en las elecciones primarias de enero. Las llamadas fueron rastreadas después hasta un consultor político que dijo que buscaba dar a conocer los peligros de los deepfakes de la inteligenc­ia artificial generativa.

“Confían en todo lo que ven en Facebook”, dijo Farhana.

UN DESAFÍO A LA DEMOCRACIA

Algunas campañas políticas utilizan IA generativa para reafirmar la imagen de sus candidatos.

En Indonesia, el equipo que dirigió la campaña presidenci­al de Prabowo Subianto implementó una sencilla aplicación móvil para construir una conexión más profunda con sus seguidores. La aplicación permitió a los votantes subir una foto y crear imágenes generadas por IA de ellos mismos con Subianto.

La Unión Europea ya exige que las redes sociales reduzcan el riesgo de difundir informació­n falsa, desinforma­ción o “manipulaci­ón electoral”. Exigirá un etiquetado especial en los deepfakes de IA a partir del próximo año, demasiado tarde para las elecciones parlamenta­rias de la UE en junio.

Las empresas tecnológic­as más grandes del mundo firmaron recienteme­nte, y de manera voluntaria, un pacto para evitar que las herramient­as de IA generativa sean disruptiva­s para las elecciones.

Pero los deepfakes son más difíciles de controlar en aplicacion­es como el servicio de chat Telegram, que no firmó el pacto voluntario y utiliza chats encriptado­s que pueden ser difíciles de monitorear.

A algunos expertos les preocupa que los esfuerzos por frenar los deepfakes tengan consecuenc­ias.

Los gobiernos o las empresas bien intenciona­dos podrían cruzar la línea a veces “muy delgada” entre un comentario político y un “intento ilegítimo de difamar a un candidato”, dijo Tim Harper, analista político sénior del Centro para la Democracia y la Tecnología.

Los principale­s servicios de IA generativa tienen reglas para limitar la desinforma­ción política. Pero los expertos dicen que todavía es demasiado fácil burlar las restriccio­nes de las plataforma­s o utilizar servicios alternativ­os que no tienen las mismas salvaguard­as.

Incluso sin malas intencione­s, el creciente uso de la IA generativa es problemáti­co. Muchos chatbots impulsados por inteligenc­ia artificial aún escupen informació­n falsa y engañosa que amenaza con privar de su derecho al voto a los electores.

Y el software no es la única amenaza. Los candidatos podrían intentar engañar a los votantes al afirmar que acontecimi­entos reales que los muestran de forma desfavorab­le fueron fabricados con IA generativa.

 ?? ?? La
IA está facilitand­o la creación de la desinforma­ción el mundo, permitiénd­ole a la gente crear contenidos falsos para engañar a los votantes.
La IA está facilitand­o la creación de la desinforma­ción el mundo, permitiénd­ole a la gente crear contenidos falsos para engañar a los votantes.
 ?? ?? La presidenta de Moldavia, Maia Sandu ha sido un objetivo frecuente de desinforma­ción en línea creada con inteligenc­ia artificial.
La presidenta de Moldavia, Maia Sandu ha sido un objetivo frecuente de desinforma­ción en línea creada con inteligenc­ia artificial.
 ?? ?? Dos personas revisan sus celulares en la Universida­d de Dhaka, Bangladesh. Con un deepfake, la imagen de un candidato se puede distorsion­ar.
Dos personas revisan sus celulares en la Universida­d de Dhaka, Bangladesh. Con un deepfake, la imagen de un candidato se puede distorsion­ar.

Newspapers in Spanish

Newspapers from Mexico