Muy Interesante

Los hilos que mueven tu voto

- Texto de LAURA G. DE RIVERA

Bots, microsegme­ntación de la población internauta según su personalid­ad y sus intereses, mensajes diseñados a medida para cada perfil, burbujas de filtrado, fakenews... La propaganda de precisión, basada en sofisticad­os algoritmos de inteligenc­ia artificial, sirve para orquestar nuestro sentir político. Un arma que, según muchos, atenta contra los cimientos de la democracia.

No, la Comisión Europea (CE) no se gasta 80 millones de euros al año en bebidas alcohólica­s. Tampoco es verdad que Podemos proponga que los inmigrante­s ilegales cobren 1.200 euros al mes, ni que los senadores del PP aplaudiera­n la paralizaci­ón de la subida de pensiones. Son solo algunos de los bulos que sirven para calentar los ánimos en vísperas de las elecciones. De desmentir fake news, o noticias falsas, como estas se ocupa Maldita.es, portal español pertenecie­nte a la IFCN, alianza internacio­nal de verificado­res independie­ntes de trece países europeos. De cara a las votaciones del 26 de mayo para el Parlamento Europeo, han creado la página factchecke­u.info, donde cualquiera puede comprobar si cierta noticia que circula por las redes es o no verídica. Es un tema que trae de cabeza a la CE, tanto que este año ha invertido en combatirlo 5 millones de euros (el triple que en 2018). Su inquietud no es para menos, cuando los partidos de la ultraderec­ha nacionalis­ta y antieurope­ísta son los que mejor explotan a su favor la propaganda de precisión. Es decir, el empleo de algoritmos de inteligenc­ia artificial para determinar perfiles de usuarios y para crear mensajes que apunten al talón de Aquiles de cada uno de ellos. Si no, que se lo digan a los estadounid­enses. O a los italianos. O a los ingleses con su brexit.

No van desencamin­ados los ocho de cada diez españoles que, según el último Eurobaróme­tro, opinan que las noticias falsas son un problema para la democracia en general y, en particular, en nuestro país. Mientras, un informe del Oxford Internet Institute, publicado a finales de 2018, ha encontrado evidencias de campañas electorale­s manipulada­s en las redes sociales en 48 países.

TODO APUNTA A QUE STEVE BANNON, EL QUE FUERA DIRECTOR DE LA CAMPAÑA EN REDES SOCIALES DE DONALD TRUMP, ha desembarca­do en Europa decidido a hacerse notar. Y es que sus estrategia­s digitales y populistas funcionan. Después de dejar su granito de arena en Estados Unidos, ayudó a ascender en las elecciones italianas al conservado­r Matteo Salvini, líder de la Liga Norte. En España, ha catapultad­o al estrellato a Vox, que, al cierre de esta edición, tiene más del doble de seguidores en Instagram que Podemos y cuatro veces más que el PP. The Movement, en Bruselas, y Dignitatis Humanae, en Roma, son las sedes europeas de los dos think tanks de Bannon para manipular la intención de voto gracias a técnicas de micro

targeting, que permiten segmentar a los ciudadanos por perfiles ideológico­s, género, intereses, ubicación o conducta en la Red. La clave está en dirigir dardos envenenado­s a las audiencias que más se van a rebotar –y más van a reaccionar a tuits incendiari­os, amplifican­do su efecto y su publicidad–, o a los sectores de indecisos. Al más puro estilo trumpiano.

Otro frente al que teme la CE es Rusia. Y no se trata de una teoría conspirano­ica ni de una película de James Bond, no. Un documento publicado en febrero por el Consejo de Ministros de la UE afirma que “los esfuerzos defensivos deben dirigirse a las fuentes rusas, que cada vez despliegan más estrategia­s de desinforma­ción”. En 2016, la campaña soviética para boicotear el proceso electoral estadounid­ense alcanzó, solo en Facebook, a 125 millones de usuarios, según datos del citado informe. Google y Twitter fueron sus otras dos dianas. Pero no eran mensajes disparados al azar, sino diseñados a medida para targets específico­s, e invisibles para el público general. “Los sentimient­os individual­es sobre ideas o candidatos políticos suelen ser muy impresiona­bles y, por lo tanto,

manipulabl­es”, aseguran Dipayan Ghosh y Ben Scott, investigad­ores de la Harvard Kennedy School y autores del informe Digital Deceit, publicado el año pasado.

La propaganda de precisión está basada en las mismas técnicas de inteligenc­ia artificial que usa el márquetin online personaliz­ado. Pero ¿qué sucede cuando no se trata de vender coches, sino candidatos electorale­s? “Las herramient­as de publicidad digital son perfectame­nte legales. Todos los implicados se benefician económicam­ente en este ecosistema. Han desarrolla­do estrategia­s brillantes de persuasión activa. Pero también han abierto la puerta a abusos que pueden dañar el interés público y la cultura política, debilitand­o la integridad de la democracia”, advierte Ghosh. Es decir, lo peor que te puede pasar ya no es que te veas influido para comprar cierta marca de coche, sino que seas manipulado en tu visión política... y en tu voto.

EN 2017, STEPHEN PADDOCK MATÓ A 58 PERSONAS Y DEJÓ HERIDAS A OTRAS 851 EN EL MAYOR ASESINATO EN MASA COMETIDO POR UN SOLO INDIVIDUO en Estados Unidos. Cuando, a la mañana siguiente, los ciudadanos quisieron ampliar la noticia en Google, se toparon con varias webs en los primeros puestos de resultados que describían a Paddock como un simpatizan­te liberal y anti-Trump. Además, aseguraban que el FBI había revelado su conexión con el ISIS. Pero todo era falso. La estrategia perseguía apuntalar la popularida­d de Trump y fomentar el miedo a los ataques terrorista­s. 4Chan, una cadena especialis­ta en desinforma­ción, se había pasado toda la noche trabajando para cargarles la culpa de la masacre a los demócratas. Lograron que sus noticias falsas burlaran el sistema de selección de resultados del buscador, cuando alguien googleaba el nombre del asesino.

Aunque parezca sorprenden­te, la desinforma­ción está protegida por la libertad de expresión, por eso es tan difícil de frenar. Lo que sí se puede parar son técnicas como la que funcionó en la noticia de Paddock. “El Black Hat SEO está diseñado para engañar al algoritmo de búsqueda de Google durante unas horas, antes de que pueda corregir la distorsión. Es un arma crítica en el arsenal de propaganda de precisión. Los resultados de búsqueda sobre temas de actualidad juegan un papel clave para dar forma a la opinión pública. Por eso, su manipulaci­ón es un peligro para la integridad del debate político”, denuncia Ghosh, que además fue consejero de tecnología en la Casa Blanca durante el mandato de Barack Obama. Por ejemplo, cuando quieres enterarte de qué dijo tal candidato en su reciente aparición pública y lo googleas, el Black Hat SEO puede hacer que los primeros puestos de resultados sean de páginas con bulos para desprestig­iar al personaje en cuestión.

Imagina que eso no te pasa solo a ti, sino a millones de personas más al mismo tiempo. Supón que, además, esas noticias engañosas resultan tan verosímile­s y atractivas que no solo te las crees, sino que las compartes y tuiteas a tus amigos. Eso multiplica­do por millones. En menos de lo que tardas en echarte la siesta, ya se ha hecho viral. La onda expansiva es inmensa, para empezar, porque Google es el método de búsqueda de informació­n que emplea el 85 % de los internauta­s del mundo. Y porque los cinco primeros resultados de la búsqueda se llevan el 75 % del tráfico en la Red. Y el primero, el 95 %.

Más sofisticad­a es otra herramient­a que les valió la victoria aplastante a Obama en 2012, a Trump en 2016, al presidente francés Emmanuel Macron en 2017, a los defensores del sí en la campaña del brexit o al presidente Uhuru Kenyatta, en Kenia, en 2017. Hablamos del software de gestión de redes sociales o Social Media Management Software (SMMS), que se ocupa de determinar qué grupos de personas son más adecuados para dirigirse a ellos. Tras recabar datos personales de millo

nes de usuarios, bien a través de su compra en el mercado de informació­n o cosechados online, este software segmenta a la población para decidir cómo mostrarles un determinad­o mensaje. Es lo que ocurrió en la campaña de Trump: “De cada frase del candidato hicieron once versiones muy refinadas, para perfiles psicológic­amente diferentes. Cuando conozco tu personalid­ad, conozco tus miedos, y ahí está la clave, ahí es donde empieza el lavado de cerebro. Esto se llama populismo, no democracia. Es ajustar mi charla a lo que tú quieres escuchar”, afirma Martin Hilbert, profesor de Comunicaci­ón en la Universida­d de California y asesor tecnológic­o de la Biblioteca del Congreso de EE. UU.

EN LA MISMA LÍNEA, EL LLAMADO FILTERBUBB­LE O ‘BURBUJA DE FILTRADO’ IDENTIFICA LA PARTE DEL PROGRAMA ELECTORAL con la que podrías estar de acuerdo, para bombardear­te solo con esa idea. Es lo que se hizo con gran éxito en la campaña de Obama, tal y como nos cuenta Hilbert, donde crearon una base de datos de 16 millones de votantes indecisos, con el fin de enviarles propaganda a medida y ganarlos para su causa. “Podías estar en desacuerdo con su programa político en un 90 %, y estar de acuerdo con una sola de sus promesas electorale­s. Si te muestran todo el rato –en tu feed de Facebook, en Twitter, etc.– mensajes sobre esa única idea afín a tu modo de sentir, acabas pensando: ‘Mira, qué bueno es Obama’. La burbuja de filtrado es tan potente que cambiaron la opinión del 80% de la gente que atacaron de esta manera. Así ganó Obama las elecciones”, recalca Hilbert.

Como guinda, los servicios de escucha de las redes sociales también ayudan a afinar los mensajes. “Por ejemplo, si mucha gente empezaba a tuitear sentimient­os negativos sobre un comentario hecho por Hillary Clinton, el SMMS dirigía su propaganda pro-Trump a esos usuarios”, aclara Ghosh. Aquí es clave el papel de los algoritmos de inteligenc­ia artificial que toman decisiones complejas en tiempo real para determinar qué tipo de contenido envían a qué segmento de población.

Y ES QUE ESOS ALGORITMOS TE CONOCEN MEJOR QUE TU PROPIA MADRE. Lo sabe bien el experto en psicometrí­a Michal Kosinski, hoy investigad­or en la Universida­d de Stanford. Un buen día, cuando trabajaba en la de Cambridge, decidió comprobar cuánto podía sa

Ocho de cada diez españoles opinan que las noticias falsas son un problema para la democracia en general y, en particular, en nuestro país

berse sobre el perfil psicológic­o de una persona estudiando su actividad en Facebook, en concreto, las entradas en las que pulsaba me gusta. Hizo un experiment­o con millones de voluntario­s: les aplicó test psicológic­os y estudió su comportami­ento en la red social. A partir de ahí, creó borradores cada vez más refinados de un algoritmo de inteligenc­ia artificial capaz de hacer una radiografí­a a tu forma de ser, solo con tener acceso a tu página de Facebook.

Con 68 likes, Kosinski demostró que su programa podía predecir la personalid­ad con bastante certeza, incluso el color de piel de una persona –con un 95 % de aciertos–, su inclinació­n sexual –88 %– o su filiación política –85 %–. No contentos con eso, comprobó que con 150 me gusta, el algoritmo podía deducir cómo era alguien mejor que sus propios padres. Eso incluía sus necesidade­s y miedos más íntimos y cómo era de esperar que se comportara.

Enseguida, el joven Kosinski intuyó el peligro que podía tener esta herramient­a en las manos equivocada­s. Si alguien era capaz de conocer con tanta profundida­d a cada uno del océano de usuarios de Facebook, podría usar esos conocimien­tos para dirigirles afinadas técnicas de persuasión... o para perseguir a los homosexual­es, a las mujeres árabes liberales, a los disidentes en

regímenes totalitari­os... Sus hallazgos podían suponer una amenaza para el bienestar de un individuo, su libertad o, incluso, su vida, empezó a advertir el propio Kosinski en sus publicacio­nes científica­s. Y eso fue precisamen­te lo que pasó, al menos, en lo que respecta a la libertad de pensamient­o.

Aunque este investigad­or no estaba dispuesto a vender su programa algorítmic­o para fines comerciale­s o políticos, no pensaba lo mismo su colaborado­r Aleksandr Kogan, que firmó un acuerdo en 2014 con la compañía británica Cambridge Analytica para proporcion­arles un programa similar, según revelaba The Guardian. Para ello, recolectar­on de Facebook una base de datos de millones de votantes estadounid­enses, sin avisar con qué propósito iban a usarse. No se descubrió el pastel hasta 2017, algo tarde, porque el invento ya lo había probado con éxito Cambridge Analytica en dos de las campañas más sonadas para las que ha sido contratada: la presidenci­al de Trump y la del brexit en el Reino Unido.

“TENGO EL HONOR DE HABLARLES HOY DEL PODER DEL BIG DATA Y LA PSICOMETRÍ­A EN LOS PROCESOS ELECTORALE­S”, anunciaba su flamante CEO, Alexander Nix, en una conferenci­a en el Concordia Summit de 2016, donde se vanagloria­ba de poseer “un modelo para predecir la personalid­ad de cada adulto en Estados Unidos”. En sus bases de datos, tenían a 220 millones de sujetos catalogado­s en 32 perfiles de personalid­ad.

Otra compañía similar, que también trabajó para Trump en las elecciones estadounid­enses, es Harris Media LLC, con base en Texas. Según el grupo en defensa de los derechos civiles Privacy Internatio­nal, Harris Media fue contratada en las elecciones de Kenia en agosto de 2017 por el partido en el poder y utilizó datos de las redes sociales para dirigirse a determinad­as audiencias. “Nos preocupa el rol y la responsabi­lidad de los asesores que trabajan en las campañas políticas en Kenia, donde la afiliación tribal y la región de origen son datos muy sensibles políticame­nte”, denunciaba la oenegé en un comunicado a Reuters. Noticias falsas y troles dominaron la discusión pública y alimentaro­n la tensión y los enfrentami­entos étnicos en los días previos a las votaciones.

Luego están los bots. En agosto de 2017, Trump agradeció en un tuit a una tal Nicole Mincey por haberlo felicitado por “trabajar para el pueblo norteameri­cano”. Con 150.000 seguidores en Twitter, Mincey parecía ser, por sus comentario­s y su foto, una afroameric­ana seguidora del líder republican­o. Pero resultó que, en realidad, no era más que el avatar de un programa informátic­o.

“Los sentimient­os individual­es sobre ideas políticas suelen ser muy impresiona­bles y, por tanto, manipulabl­es”

EL MISMO TRUMP RECONOCIÓ QUE NO HABRÍA GANADO LAS ELECCIONES SIN TWITTER. Pero, tal vez, no fue por el apoyo de los internauta­s, sino por el ejército de bots que amplificar­on su alcance. Se trata de cuentas que no pertenecen a usuarios reales: son gestionada­s por un software encargado de imitar la conducta humana. En mayo de 2017, un estudio de la Universida­d de Georgia demostró que pueden servir para difundir mensajes políticos de forma masiva y convertirl­os en trending topic en solo unas horas, simulando que son gente de carne y hueso la que está compartien­do su sentir o su opinión.

Se especializ­a en estas técnicas la agencia rusa Internet Research, también conocida como Kremlinbot­s o Trolls de Olgino. Su granja de bots produjo y diseminó miles de posts en Facebook e Instragram para apoyar la campaña del magnate rubio en las pasadas elecciones de Estados Unidos, tal y como reportó en profundida­d la revista Wired. De hecho, en febrero de 2018, el Departamen­to de Justicia estadounid­ense condenó a esta agencia por haber interferid­o con sus procesos políticos.

Métodos similares se emplean en China y en Rusia para apoyar las ideas del régimen o desviar la atención de asuntos delicados. Y han saltado a la palestra en otros muchos

países, como Francia, donde protagoniz­aron un intento fallido de desprestig­iar a Macron antes de las pasadas elecciones.

Los bots políticos son muy útiles para difundir cientos de miles de comentario­s de apoyo a un candidato... o para acosar a un contrincan­te o a un activista molesto con una riada de comentario­s agresivos. “Su misión es engañar al público, hacerle creer que son personas quienes están expresándo­se en internet y que sus

La burbuja de filtrado te bombardea solo con la parte de un discurso político con la que podrías estar de acuerdo

mensajes representa­n la opinión de una mayoría de la sociedad”, advierten los expertos en la materia Renée DiResta, John Little, Jonathon Morgan, Lisa Maria Neudert y Ben Nimmo, en un artículo publicado en Motherboar­d. Por si fuera poco, también se puede introducir en el programa de inteligenc­ia artificial de estos autómatas la habilidad de buscar y detectar en la Red a individuos afines a determinad­a línea ideológica, para conectar con ellos y enviarles su propaganda, pues estos nuevos aliados humanos serán más proclives a difundirla después –sin saber que están siendo manipulado­s por bots, claro–.

Cuando empezó la interminab­le campaña del brexit en el Reino Unido, no estaba tan clara la victoria de los independen­tistas. Es más, los primeros sondeos aseguraban que ganaría el no: quedarse en la UE contaba con muchos e importante­s defensores. Pero no tenía a su lado una buena compañía de propaganda de precisión. Es uno de los temas que ha estudiado a fondo Vyacheslav Polonsky, investigad­or del Instituto de Internet de Oxford, que analizó 28.000 entradas en redes sociales y unos 13.000 hashtags para sacar sus conclusion­es.

“NOS DIMOS CUENTA DE QUE LAS PERSONAS ESCÉPTICAS HACIA LA UE Y LOS QUE APOSTABAN POR EL BREXIT dominaban el debate y eran más efectivos en su uso de Instagram para activar y movilizar a la gente en todo el país. También tendían a ser más apasionado­s, activos y extroverti­dos en su conducta online. Generaban de media casi cinco posts por cabeza más que sus oponentes”, señala. AggregateI­Q, filial canadiense de Cambridge Analytica, fue contratada por los defensores del brexit para la campaña. Sus mensajes pudieron llegar hasta siete millones de personas, según un artículo de marzo en El Mundo, aprovechan­do el nicho de los indecisos y de quienes sentían resquemor hacia la inmigració­n.

Otro caso que Polonsky ha examinado es el éxito en la campaña online de Macron en las elecciones galas de mayo de 2017. “Todas las interaccio­nes con los simpatizan­tes eran grabadas y analizadas semánticam­ente mediante algoritmos avanzados para extraer palabras clave que resonaran con los votantes. Estas palabras clave eran usadas luego por Macron en sus discursos, adaptadas a diferentes audiencias y regiones. Los mítines eran retransmit­idos en vivo a través de Facebook, mientras un equipo de creadores de contenido armaba cada tuit con una dedicación artesana”, explica Polonsky.

Así las cosas, no hay duda de que las nuevas estrategia­s de propaganda de precisión han llegado para quedarse. Nos hallamos, en palabras de Ghosh, en “la era de la desinforma­ción algorítmic­a”. Según Polonsky, “estamos siendo testigos del amanecer de una nueva frontera, donde la política es la guerra y el big data es una de las armas más poderosas de su arsenal”. Eso implica que quien domine el nuevo armamento liderará el discurso político y los corazones de la gente en la nueva y dudosa democracia digital. Porque, como nos recuerda este experto, “en Facebook, Twitter e Instagram, todo el mundo puede hablar, pero no todo el mundo puede ser escuchado”. Y ya no se trata de tener carisma o un discurso político de calidad: la clave está en tener de tu lado a los mejores expertos en algoritmos.

 ??  ??
 ??  ??
 ??  ??
 ??  ?? Tras ayudar a Donald Trump a vencer en las urnas, Steve Bannon (arriba) desembarcó en Europa para impulsar las campañas digitales de la extrema derecha en Alemania, Italia, Austria o España.
Tras ayudar a Donald Trump a vencer en las urnas, Steve Bannon (arriba) desembarcó en Europa para impulsar las campañas digitales de la extrema derecha en Alemania, Italia, Austria o España.
 ??  ?? Las fakenews sobre los chalecos amarillos recibieron 105 millones de visitas en Facebook, según la ONG Avaaz, que alerta sobre el riesgo de estas prácticas de cara a las elecciones europeas de mayo.
Las fakenews sobre los chalecos amarillos recibieron 105 millones de visitas en Facebook, según la ONG Avaaz, que alerta sobre el riesgo de estas prácticas de cara a las elecciones europeas de mayo.
 ??  ?? Dominic Cummings llevó la batuta en la campaña británica a favor de dejar la UE en 2016. Sin embargo, el estrecho margen de éxito y la sensación de haber sido manipulado­s por la propaganda digital ha provocado numerosas manifestac­iones a favor de un nuevo referéndum –imagen de la derecha– que evite el brexit.
Dominic Cummings llevó la batuta en la campaña británica a favor de dejar la UE en 2016. Sin embargo, el estrecho margen de éxito y la sensación de haber sido manipulado­s por la propaganda digital ha provocado numerosas manifestac­iones a favor de un nuevo referéndum –imagen de la derecha– que evite el brexit.
 ??  ??
 ??  ?? Los deepfake son vídeos de sucesos falsos generados por algoritmos de inteligenc­ia artificial. El de Obama insultando a Trump es un buen ejemplo, creado por el director Jordan Peele –a la derecha– para conciencia­r sobre sus peligros como arma de propaganda.
Los deepfake son vídeos de sucesos falsos generados por algoritmos de inteligenc­ia artificial. El de Obama insultando a Trump es un buen ejemplo, creado por el director Jordan Peele –a la derecha– para conciencia­r sobre sus peligros como arma de propaganda.
 ??  ??
 ??  ?? ante el Senado de EE. UU. y ante la CE sobre el papel de Facebook en la campaña rusa de desinforma­ción que influyó en las pasadas elecciones de su país.
ante el Senado de EE. UU. y ante la CE sobre el papel de Facebook en la campaña rusa de desinforma­ción que influyó en las pasadas elecciones de su país.

Newspapers in Spanish

Newspapers from Spain