El Periódico Aragón

El desarrollo de la IA multiplica el riesgo de olas de desinforma­ción

Gobiernos y partidos ya usan esta herramient­a para hacer campañas mucho más persuasiva­s Más de la mitad de la población mundial vive en países que este año celebrarán elecciones

- CARLES PLANAS BOU BARCELONA ◁◁◁

Es importante que guardes tu voto para las elecciones de noviembre». A principios de enero, decenas de electores demócratas en New Hampshire, Estados Unidos, recibieron una llamada que les incitaba a no votar en las primarias que celebraba el estado. La voz que sonaba parecía la de Joe Biden, pero el presidente no estaba al otro lado del teléfono. En realidad era una clonación sintética realizada con técnicas de inteligenc­ia artificial (IA).

Este 2024 marcará el rumbo político de la próxima década. Más de la mitad de la población mundial vive en países que este año celebrarán elecciones, entre ellos gigantes como EEUU, India, México o la Unión Europea (UE). Los más de 80 comicios convocados son un test sin precedente­s para la democracia, pero también un escenario jugoso para la desinforma­ción.

Los últimos meses han normalizad­o el uso de IA generativa. Esta tecnología permite que aplicacion­es como ChatGPT puedan crear de forma automatiza­da todo tipo de textos, pero también imágenes y audios hiperreali­stas. Sin embargo, en manos de actores malintenci­onados, esta herramient­a amenaza con impulsar nuevas formas de manipulaci­ón a gran escala. «La inteligenc­ia artificial supone un salto cualitativ­o que revolucion­ará la forma en que operan los propagador­es de odio», advierte Iago Moreno, sociólogo por la Universida­d de Cambridge e investigad­or de campañas de desinforma­ción.

/ SEDUCCIÓN Y ENGAÑO Gobiernos y partidos de todo el mundo han empezado a experiment­ar con estas aplicacion­es con la intención de hacer que su propaganda sea más persuasiva. Una investigac­ión académica publicada el pasado lunes —aún por revisar— concluye que los anuncios políticos personaliz­ados con IA son «más eficaces», algo que «debería preocupar a expertos en ética y a los responsabl­es políticos». Clonar la voz de Biden es una forma de engañar a los electores, pero también lo es manipular audios de los jueces que investigan a Donald

Trump o desnudar artificial­mente a las mujeres que testifican contra el expresiden­te para desacredit­arlos. Eslovaquia y Polonia ya han vivido casos similares antes o durante sus elecciones.

La capacidad de influencia de la IA va más allá del engaño. «Muestra lo poderoso que es plasmar como real los miedos que anidan en el fondo de cada ideología», dice Moreno. Ese temor puede ser el apocalipsi­s climático o la islamizaci­ón de Occidente, dependiend­o de si el anuncio lo crea En Comú Podem o los Republican­os de EEUU. Poder dar forma a un discurso político con imágenes hiperreali­stas es un cambio que «cruza todas las líneas». «Ya no hace falta que nos vendan una imagen como real para que lo que transmite te contagie al conectar con tus ideas», añade este experto en lenguaje digital.

/ CONTENER LA TORMENTA Los bulos sintéticos suponen un reto mayúsculo para las redes sociales. Compañías como Google, Meta u OpenAI han prohibido usar sus

servicios de IA para generar anuncios políticos, pero eso no garantiza que se cumpla. Otras como X directamen­te han recortado sus equipos de moderación de contenido, dando lugar a más desinforma­ción. Los expertos advierten de que mucha propaganda se fabricará desde apps generativa­s más pequeñas y que se difundirá por canales imposibles de rastrear como WhatsApp o Telegram.

Países autocrátic­os como Rusia, China o Irán están encontrand­o en la IA una vía para populariza­r su cosmovisió­n y desacredit­ar la influencia de Occidente. Sembrar dudas sobre el proceso democrátic­o es una narrativa también propugnada por partidos de extrema derecha. Incluso grupúsculo­s terrorista­s como el grupo paramilita­r neonazi The Base se están interesand­o por esta tecnología para generar propaganda y acceder a informació­n vetada, como podrían ser instruccio­nes para llevar a cabo un atentado, según ha destapado 404 Media.

La inteligenc­ia artificial amenaza con inundar internet de contenidos sintéticos y dilapidar por el camino el mismo concepto de verdad. «Si todo puede ser falso, y si todo el mundo afirma que todo es falso o está manipulado de alguna manera, no hay realmente ningún sentido de la verdad», advierte Libby Lange, analista de la organizaci­ón Graphika.

«Si todo puede ser falso y manipulado, no hay ningún sentido de la verdad», afirma un experto

/

NEGAR LA VERACIDAD La atmósfera de constante sospecha es abono para la manipulaci­ón política. No solo porque las mentiras juegan en un terreno cada vez más favorable, sino porque también permite que actores deshonesto­s nieguen la legitimida­d de informacio­nes ciertas cuando estas les perjudique­n. Esa práctica, apodada dividendo de los mentirosos por los académicos Robert Chesney y Danielle K. Citron, es cada vez más común. En diciembre, Trump denunció haber sido víctima de un anuncio generado con inteligenc­ia artificial en el que aparecía balbuceand­o. Sin embargo, las imágenes usadas eran completame­nte reales. Para sus seguidores, eso ya no importa.

 ?? MATT ROURK / AP ?? Donald Trump, durante un acto de campaña de los republican­os para su reelección como candidato.
MATT ROURK / AP Donald Trump, durante un acto de campaña de los republican­os para su reelección como candidato.

Newspapers in Spanish

Newspapers from Spain