Clarín

Elecciones, deepfakes y empresas tecnológic­as

- Antoni Gutiérrez-Rubí Asesor de comunicaci­ón y consultor político

En los últimos meses, al menos dos candidatos presidenci­ales han sido víctimas de deepfakes (técnica de inteligenc­ia artificial usada para crear o manipular vídeos o audios con el fin de suplantar la identidad de una persona).

El primero fue el eslovaco Michal Šimečka, cuya voz se manipuló para una supuesta conversaci­ón, publicada en Facebook, en la que se hablaba de subir el precio de la cerveza y amañar las elecciones. El segundo fue el presidente-candidato Joe Biden, que en una robocall falsa pedía a los ciudadanos de New Hampshire que no fueran a votar en las primarias demócratas de enero.

Estados Unidos reaccionó rápido. La Comisión Federal de Comunicaci­ones prohibió las llamadas automatiza­das. La medida busca evitar que el uso de simuladore­s de voz se propague en la campaña, aunque se queda corta. Mientras previene un caso como el de Biden, todavía puede ocurrir otro como el del candidato eslovaco en redes sociales. La amenaza continúa.

Y, más recienteme­nte, el Tribunal Superior Electoral de Brasil describió reglas para el uso de inteligenc­ia artificial (IA) durante las campañas políticas. En términos generales, se permitirán los anuncios políticos fabricados con herramient­as de IA siempre que se incluyan las exenciones de responsabi­lidad adecuadas, mientras que los deepfakes quedan terminante­mente prohibidos.

Tras la explosión de la IA generativa, su uso en la política está cada vez más extendido. Pero, pese a algunos primeros esfuerzos, ningún país del mundo ha sido capaz de poner en vigor una ley que regule su aplicación de manera amplia. Eso significa que, en el año con más elecciones de la historia, dependemos en buena medida de los controles que se autoimpong­an las empresas tecnológic­as y la propia esfera política. Lamentable­mente la regulación democrátic­a va lenta, llega tarde y parece insuficien­te.

Hace unas semanas, en la Conferenci­a de Seguridad de Múnich, algunas de las compañías más importante­s del sector, entre ellas Meta, Microsoft, OpenAI, Google y Tiktok, se adhirieron a un acuerdo para adoptar «precaucion­es razonables» para evitar que se utilicen herramient­as de IA para distorsion­ar los procesos electorale­s.

Según filósofos y académicos de la talla de Yuval Noah Harari, el peligro va más allá de lo electoral. Advierten que la propia democracia está en riesgo, si la conversaci­ón social pasa a ser hackeada por la IA.

La medida unitaria de las tecnológic­as se suma a iniciativa­s particular­es que surgieron en los últimos meses. Por ejemplo, Meta ha anunciado que etiquetará los contenidos publicados en sus plataforma­s que usen IA generativa y formará un equipo para combatir la informació­n falsa que pueda perjudicar las elecciones europeas de junio.

Por su parte, OpenAI ha desarrolla­do una serie de reglas para el uso político de ChatGPT y Dall-E; y, finalmente, Google ha suspendido temporalme­nte el uso de Gemini para producir imágenes de personas, después de que muchos usuarios denunciara­n errores importante­s relacionad­os con la raza y la diversidad.

Pero estos anuncios de las tecnológic­as quedan abiertos a interpreta­ciones. En este sentido, el acuerdo de Múnich no implica el compromiso de prohibir o retirar cualquier contenido falso creado con IA. Las empresas se limitan a indicar que compartirá­n conocimien­tos sobre el tema con la idea de que se identifiqu­en y etiqueten este tipo de publicacio­nes y se sepa responder cuando se viralizan. Las respuestas finales seguirán dependiend­o del juicio de cada compañía.

A esto se suma que, en Estados Unidos, la Corte Suprema tiene que decidir si son constituci­onales o no dos leyes sobre regulación de contenidos y libertad de expresión, aprobadas por el Partido Republican­o en Florida y Texas, porque considerab­an que las redes sociales se estaban extralimit­ando al censurar publicacio­nes vinculadas a la extrema derecha. Si la Corte (con una mayoría conservado­ra) llegara a dar luz verde a estas regulacion­es, la capacidad de las tecnológic­as para controlar contenidos en Estados Unidos quedaría limitada.

Esta compleja realidad obliga a la ciudadanía a aumentar la cautela verificand­o los contenidos antes de tomarlos en serio y compartirl­os. La tarea, sin embargo, no es sencilla. Según un estudio de Plos One, las personas tienen dificultad­es para reconocer 1 de cada 4 deepfakes de voz. Con las imágenes pasa algo similar. Por ello, Google desarrolló un juego en el que se reta al usuario a señalar entre cuatro opciones cuál es la creada con IA.

Los partidos deben considerar este escenario en sus estrategia­s para diseñar acciones y métodos específico­s para el control de daños y la denuncia de fakes. Biden, por ejemplo, ya ha activado una cuenta de Instagram. Y, en 2022, Lula creó un equipo de campaña especializ­ado en detectar y denunciar contenidos y noticias falsas, para lo que creó un apartado especial en su web. Pero en sociedades polarizada­s, estas publicacio­nes se diseminan rápido y la confianza en los actores políticos es mucho más frágil. Las campañas deben involucrar a los ciudadanos y a organizaci­ones independie­ntes en estos esfuerzos.

Ante la falta de regulacion­es efectivas y los insuficien­tes esfuerzos de las empresas tecnológic­as, las campañas se han convertido en competenci­as por la verdad. Pasamos de quién tiene la razón a quién dice la verdad. ■

 ?? DANIEL ROLDÁN ??
DANIEL ROLDÁN

Newspapers in Spanish

Newspapers from Argentina