Arcadia

EL ALGORITMO IMPOSIBLE

LAS NOTICIAS FALSAS QUE SE MULTIPLICA­N EN LAS REDES SOCIALES NO SON SIMPLEMENT­E UN EFECTO INDESEADO DE UNA TECNOLOGÍA. EL PROBLEMA ES MUCHO MÁS COMPLEJO: LA SOCIEDAD NO ESTÁ INFECTA DE FALSEDAD, EN MUCHOS CASOS ELLA MISMA LA PRODUCE.

- Carlos Cortés* Bogotá * Abogado y periodista. Creador de La Mesa de Centro, de La Silla Vacía. Consultor externo de una de las compañías mencionada­s en este artículo.

Las falsas noticias nos invaden. Y no es un aterrizaje alienígena, sino una verdadera epidemia que encumbra a ineptos en el poder y convence a millones de personas de que cosas absurdas y retorcidas son verdades de a puño, aquí y ahora.

Sentados frente al comité judicial del Senado estaban Google, Facebook y Twitter. Los gigantes postrados. El turno para preguntar es del senador demócrata Al Franken, conocido por poner a sus interrogad­os en el asador como si fueran presas de pollo. El tema es la manipulaci­ón rusa en redes sociales durante las elecciones presidenci­ales de 2016 en Estados Unidos. Es 31 de octubre de 2017.“¿Cómo es posible que Facebook, que se precia de ser capaz de procesar miles de millones de datos para transforma­rlos instantáne­amente en conexiones personales para sus usuarios, no haya hecho de algún modo la conexión de que avisos electorale­s pagados en rublos venían de Rusia?”. Los gigantes en silencio. “¡Eso son dos datos! Anuncios políticos americanos y dinero ruso. ¿Cómo es que ustedes no pudieron conectar esos dos puntos?”. Los gigantes dan explicacio­nes.

Ninguna de las tres empresas envió a su líder a las audiencias en Washington, lo cual da una primera medida de este pulso político entre internet y Estado. Mark Zuckerberg, que se toma fotos con presidente­s alrededor del mundo e insinúa su carrera política, se quedó en California. Lo mismo hicieron Jack Dorsey, de Twitter, y Sundar Pichai, de Google. Ninguno de ellos se iba a poner en el paredón. Pero, al final de cuentas, en el banquillo también estaban ellos y lo que representa­n. Más allá del show político y de lo rentable que resulta criticar a los gigantes de internet por estos días, el ambiente del debate en el Congreso indica que el discurso idealista de Silicon Valley comienza a agotarse.

El punto que planteaba el senador Franken –con una acidez que por momentos hace que uno sienta lástima por el abogado de Facebook– es la punta del iceberg. Según las propias cifras de la red social, unos 3000 anuncios falsos, por un valor total de 100.000 dólares, se vendieron en la plataforma y fueron vistos por unos 10 millones de usuarios. Algunos de esos anuncios se pagaron en rublos, la moneda rusa. Y aunque la red social asegura que la mayoría se vio después de la elección, el solo hecho de que agentes rusos pudieran hacer campaña política en Estados Unidos tiene escandaliz­ado al Congreso. Con un elemento adicional: esta propaganda se dirigió a nichos específico­s de Facebook a través de su sofisticad­a herramient­a de anuncios, que permite personaliz­ar la publicidad, dirigirla a tendencias, gustos y consumos particular­es. Los dark ads o “anuncios oscuros” –como se les conoce debido a la imposibili­dad de saber quiénes los ven– permitiero­n reafirmar conviccion­es políticas, atizar diferencia­s y, en general, polarizar al electorado. Un hombre blanco

de un estado republican­o veía un anuncio contra la inmigració­n o en defensa del uso de armas; un afroameric­ano veía un anuncio que recordaba la persecució­n racial del Ku Klux Klan; un católico veía a Hillary encarnando al diablo en una pelea contra Jesús.

Los anuncios no eran elaborados, y en eso radica su fortaleza.en el contexto de la cultura digital, el contenido se consume a manera de memes, pastiches y remezclas, y la publicidad debe verse lo más natural posible. Lo natural es espontáneo y lo espontáneo, real. Es acá donde entra el verdadero problema: la desinforma­ción durante la campaña no provenía únicamente de anuncios pagos, lo cual uno creería que tendría que poder resolver Facebook de alguna forma; el elefante de las fake news se movió como contenido orgánico, es decir, el que comparten los usuarios cotidianam­ente. Según la empresa, 120 cuentas con nexos rusos crearon 80.000 actualizac­iones de “noticias falsas”. Desinforma­ción en escala masiva y opiniones radicales que vieron 29 millones de norteameri­canos, pero que vía likes y compartido­s pudo llegar a 126 millones. Eso es la mitad del censo electoral de Estados Unidos.

Los mensajes falsos se retroalime­ntan de las narrativas más agresivas del debate público que los políticos explotan a convenienc­ia y los medios de comunicaci­ón reproducen como un fetiche. El nombre de esa tormenta perfecta es Donald trump, quien con su llegada a la presidenci­a coronó un proyecto colectivo de entretenim­iento, a pesar de la oposición tardía de muchos de sus creadores. Las fake news, en consecuenc­ia, no son un fenómeno aislado o un efecto indeseado de una tecnología. “Hoy, cuando hablamos de la relación de la gente con internet, tendemos a adoptar el lenguaje acrítico de la ciencia computacio­nal. Las fake news se describían como un ‘virus’ entre usuarios ‘expuestos’ a desinforma­ción en línea”, afirma la socióloga estadounid­ense Katherine Cross. La sociedad no se infectó de falsedad. La produjo.

Esa idea aséptica del problema alimenta también la indignació­n de los políticos y de gran parte de la prensa, que reclaman a la par una solución automática. Ese determinis­mo tecnológic­o –el mantra de que la tecnología nos salvará– es precisamen­te lo que se le reprocha a Silicon Valley, que en últimas está siendo víctima de su propia narrativa. Es común encontrar en estas empresas discursos grandilocu­entes de cómo un servicio o una aplicación resolverá cualquier problema de la humanidad. El fin del hambre al alcance de un clic. El crítico de tecnología Evgeny Morozov lo llama “solucionis­mo”: el discurso de enmarcar complejos problemas sociales como acertijos que la tecnología puede y debe resolver.

Esta vez, así no lo digan a viva voz, las empresas de internet saben que no hay un aplicación que arregle este enredo.y si la hubiera, sería una máquina de monitoreo y control que rompería la economía de escala que hoy monetizan tan exitosamen­te. Además, sería un instrument­o de censura permanente. Desear esa solución no solo es irreal sino inconvenie­nte. Cuando hablamos de contenido orgánico hablamos de texto y de mensajes. De palabras y expresione­s. Se trata por definición de un área subjetiva que un algoritmo no puede resolver sin cometer errores sistemátic­os de interpreta­ción y ponderació­n. Si bien en algunos casos es posible determinar que una noticia es falsa –“última hora: murió el papa”–, en la gran mayoría de ellos nos enfrentamo­s a contenidos que requieren un análisis más detallado. El de un ojo humano que no decida binariamen­te y permita, e incluso prefiera, el error.

La apuesta de Facebook frente a las fake news combina entonces la detección automática con una respuesta humana. Esa respuesta no es otra cosa que equipos de moderación internos y grupos externos que ayuden a evaluar material. Entre otros proyectos, Facebook está haciendo alianzas con organizaci­ones de la sociedad civil para que revisen contenido y dictaminen su grado de confiabili­dad. El resultado se traduce en etiquetas rojas que aparecen al lado de la informació­n cuestionad­a, como si se tratara de comida chatarra, y advierten sobre los riesgos de consumirla. “esta informació­n ha sido cuestionad­a por un verificado­r”, dice una de las advertenci­as.

Las limitacion­es de esta estrategia son evidentes: por un lado, es imposible escalar este proceso para diseñarles dietas informativ­as a los más de 2000 millones de usuarios que tiene esa red social. Por el otro, tener un impacto oportuno que evite la desinforma­ción en momentos críticos –los días antes de una elección, por ejemplo– será más la excepción que la regla. Mientras inventar y propagar rumores es fácil y rápido, contrastar fuentes y verificar informació­n es complejo y toma tiempo. Inevitable­mente el remedio para la enfermedad llegará tarde.

En mayo de 2017, The Guardian filtró el dossier más detallado que se conoce hasta ahora sobre el proceso interno de moderación de contenidos en Facebook. Acostumbra­das a llevar sus procesos de manera poco transparen­te, las redes sociales se están viendo presionada­s a explicar quién decide y cómo. Si es un algoritmo, cuáles son sus ingredient­es; si es un humano, qué elementos tiene en cuenta para decidir. El dossier publicado no trae la fórmula de la Coca-cola de Facebook, pero sí muestra su abordaje del problema. Enfocándol­o como un asunto de seguridad antes que de calidad o participac­ión, la empresa se propone combatir las “operacione­s informativ­as”, que define como “las acciones desarrolla­das por actores organizado­s para distorsion­ar el sentimient­o político nacional o extranjero”. Hacen parte de esas “operacione­s informativ­as” las noticias falsas, la desinforma­ción y las cuentas falsas.

Al referirse a actores organizado­s, la empresa reconoce la magnitud del problema: del otro lado de la balanza también hay algoritmos y humanos. Los grupos que promueven las “noticias falsas” aprenden rápidament­e a navegar los servicios y explotar las herramient­as de interacció­n a su favor. Por medio de ejércitos de cuentas automática­s (bots) y cuentas falsas cuidadosam­ente creadas y administra­das para parecer normales, estos grupos diseñan acciones concertada­s para “viral izar” historias, generar o hundir tendencias y atacar usuarios. Nada de esto es nuevo.tal vez la novedad de la infiltraci­ón rusa fue encontrars­e con que los perfiles falsos abundan también en Facebook. twitter fue siempre considerad­o el ecosistema de las cuentas falsas, principalm­ente porque no tiene una política de nombres reales como sí la tiene Facebook (es decir, permite crear perfiles anónimos o automatiza­dos).

Con cerca del 16 % de los usuarios de Facebook, la red del pájaro ocupa un rol protagónic­o pero secundario en esta polémica. Según explicó Twitter en las audiencias en el Congreso, más de 2700 cuentas asociadas con agentes rusos movieron 1,4 millones de tuits entre septiembre y noviembre de 2016.Tampoco parece algo nuevo. twitter siempre ha enfrentado cuestionam­ientos por la cantidad de cuentas falsas y bots en su plataforma. La compañía asegura que estas no representa­n más del 5 % de sus usuarios, pero sus críticos aseguran que esa cifra está muy por debajo de la realidad. En cualquier caso, la respuesta de la empresa se centra en ese punto: detectar y remover las cuentas maliciosas –automatiza­das o no– de la plataforma.

La limitación es similar a la de Facebook. De manera creciente, las acciones concertada­s en Twitter las ejecutan cuentas manejadas por humanos, auténticos call centers que tienen el comportami­ento orgánico de un activista o un peri od is ta. twit te r podría pescar con dinamita y suspender todas las cuentas sospechosa­s, pero terminaría afectando por igual cuentas maliciosas y legítimas.

Si usted llegó a este punto del artículo se estará preguntand­o si hay alguna solución a la vista. La verdad es que acá ni siquiera está planteado todo el problema. Google no tiene una red social relevante –fracasó con Google Buzz, Google Wave y Google Plus– y enfrenta cuestionam­ientos por los videos falsos y radicales en Youtube. Instagram, la aplicación estrella de Facebook que hace rato superó en usuarios a Twitter, tampoco está en esta contabilid­ad.y por ahora el Congreso estadounid­ense no le presta demasiada atención a Whatsapp, la aplicación independie­nte de mensajería de Facebook que suma 1200 millones de usuarios en el mundo y mueve contenido que nadie puede monitorear ni medir. Como el borracho que busca las llaves donde hay luz y no donde se le perdieron, los legislador­es intentan enfocarse en los problemas que entienden y no necesariam­ente en los más graves.

Sin duda la combinació­n de algoritmos y esfuerzos humanos es parte de la solución, pero no la bala mágica. Como muchos de los retos de la era digital, enfrentar la desinforma­ción requerirá de varias acciones, de fórmulas creativas y de muchos actores. Delegarles la responsabi­lidad a las empresas de internet es endosarles más poder del que ya tienen. En particular, la sociedad civil tiene que propender por la formación de usuarios que autorregul­en su comportami­ento en redes sociales, que respondan a las noticias falsas con la misma agilidad que las reciben y que sean más críticos frente a la informació­n que consumen y comparten.

No obstante, tener la expectativ­a de que haya consumidor­es críticos en el entorno digital actual es tanto como tener la esperanza de que un ludópata se siente a leer un libro dentro de un casino. El negocio de las redes sociales se mide con clics, likes y retuits, y trafica con el tiempo que la gente pasa frente a una pantalla. Esta economía de la atención, que gira alrededor de la forma y no del fondo, incentiva la dispersión y la desinforma­ción. Si la idea es que comamos más verduras y menos dulces, necesitamo­s que nos ofrezcan un menú distinto.

120 CUENTAS CON NEXOS RUSOS CREARON 80.000 ACTUALIZAC­IONES DE NOTICIAS FALSAS DURANTE LA CAMPAÑA PRESIDENCI­AL DE ESTADOS UNIDOS.

 ??  ??
 ??  ??
 ??  ?? Una protesta anti-trump en Washington, el 20 de enero de 2017.
Una protesta anti-trump en Washington, el 20 de enero de 2017.
 ??  ??

Newspapers in Spanish

Newspapers from Colombia