Facebook y las noticias
Un trabajo hecho en el país por la World Wide Web Foundation confirma que la red social elige, con un algoritmo, cuáles y cuántas noticias de medios periodísticos les muestra a sus usuarios
Un estudio sobre cómo la red influye en los argentinos.
¿Quién define qué noticias leemos? Históricamente fueron los medios: periodistas que les dan relevancia a ciertos hechos. En los últimos años, surgió un intermediario: Facebook, el sitio más visitado del país, y que el 65% de los argentinos usa como fuente noticiosa, según el Instituto Reuters para el Estudio del Periodismo. Facebook muestra lo que generan otros, pero no todo; aun si el usuario eligió “seguir” el perfil de ese medio, es decir, incluso si demostró un interés directo por el contenido de ese perfil.
Y para los medios esto es un problema: pierden el control sobre su audiencia, que solo verá las notas que Facebook selecciona (para ver el resto deberán ir a la web del medio o usar su aplicación). Pero lo es también para quienes creen que Facebook es neutral, y que no decide qué notas se ven más y cuáles no. Esto último es lo que buscó hacer evidente un experimento hecho en el país a fines del año pasado.
En diciembre de 2017, Renata Ávila, Juan Ortiz Freuler y Craig Fagan, de la World Wide Web Foundation (la fundación que aboga por una Web abierta y por democratizar el acceso a la información), junto con la colaboración técnica de Claudio Agosti, crearon cuentas falsas en Facebook: seis mujeres de 30 años, sin ingresar más datos que esos. Todas siguieron a las mismas 22 fuentes de noticias dentro de Facebook, incluyendo la nacion, Clarín, Infobae, Página 12 y otros medios, y también los perfiles de Mauricio Macri y de Cristina Fernández de Kirchner. Todas se conectaron a la misma hora en forma periódica. Una semana después de su creación, el 15 de diciembre, hicieron un cambio: dos cuentas les dieron “me gusta” a varias publicaciones de Mauricio Macri; dos hicieron lo mismo con posteos de Cristina Fernández de Kirchner; y otras dos permanecieron “neutrales”. Querían medir cómo cambiaba el contenido que se le mostraba a cada perfil.
El resultado: de las 11.603 notas publicadas por las 22 cuentas noticiosas en Facebook durante 11 días, solo el 18% fue mostrado a los seis perfiles. Facebook eligió contenido diferente incluso para las cuentas que tenían un perfil similar.
La medición es acotada, pero confirma en forma local estudios internacionales: las redes sociales eligen qué noticias ven sus usuarios. El filtro noticioso, que antes era social y compartido, ahora depende de un algoritmo. Facebook no es un medio, pero actúa como tal.
“La amplitud de esta brecha entre lo que se ve y lo que se oculta representa el gran margen de discrecionalidad con el que cuenta la plataforma, y que se encuentra fuera del control de los usuarios”, afirman los autores del estudio, al que accedió la nacion.
“La sección de Noticias de cada persona en Facebook es única y está diseñada para que encuentre el contenido más relevante. Lo que cada persona ve es determinado por sus intereses e interacciones con otras personas, páginas, noticias, negocios y contenidos”, explica Ana Clara Prilutzky, gerenta de Comunicaciones de Facebook Argentina. “Nuestro objetivo es entregar las historias que, según hemos aprendido, le interesan más a un individuo –dicen en Facebook–. Hacemos esto no solo porque creemos que es lo correcto, sino también porque es bueno para nosotros. Cuando la gente ve contenidos que le interesan, es probable que pase más tiempo en el News Feed y disfrute de la experiencia”.
Las redes sociales generan así una suerte de diálogo, como oposición al monólogo de los medios tradicionales, que antes de la Web publicaban casi a ciegas. Facebook no esconde que hace una selección, pero es difícil determinar cómo decide qué muestra.
En enero, después de que se hiciera la medición del estudio, Facebook cambió cómo organiza las publicaciones, y privilegió las de amigos por sobre las noticias. También incorporó una herramienta (no disponible en la Argentina) que muestra, en una publicación, cómo otros medios tratan la misma noticia.
Lo hizo en respuesta a la tormenta en la que está envuelta la compañía en los últimos años por su papel como vehículo de noticias falsas y propaganda política (ver aparte).
Esta decisión afectó el número de visitas que Facebook deriva a los medios, que tienen una relación ambivalente con la red social: les trae visitantes, pero se queda con una parte creciente de la torta publicitaria. Algunos medios, que producían contenido solo para este sitio, debieron cerrar.
Hace unos días Facebook anunció la posibilidad de cambiar en forma temporal el orden de la lista de publicaciones (Noticias) de la vista algorítmica a la cronológica: primero se ve lo más reciente.
Los medios siempre eligen qué publicar y qué no. Pero la oferta completa está disponible para el lector: todas las notas de un sitio, la duración entera de un noticiero o programa de radio. En Facebook esa oferta es opaca: en el período que midió el estudio las cuentas analizadas, por ejemplo, no se mostraron noticias sobre femicidios, aunque hubo notas publicadas sobre el tema en los perfiles que seguían. El algoritmo (esa fórmula de aplicación automática, pero programada por personas) las consideró irrelevantes.
Esto no es nuevo: en 2011 el activista estadounidense Eli Pariser acuñó el término “burbuja de filtros” (filter
bubble, en inglés) para dar cuenta de este fenómeno: un canal de información hecho tan a medida termina siendo una anteojera.
“En un medio tradicional sabés qué se consideró más importante por su ubicación en la página del diario o el tiempo dedicado en el noticiero. En Facebook, no: la noticia de la falta de quorum para un debate parlamentario aparece mezclada con el posteo del casamiento de un amigo”, dice Eugenia Mitchelstein, profesora de la Universidad de San Andrés y autora, junto a Pablo Boczkowski, de La brecha de las noticias.
Así, explica, se diluyen los límites entre la información pública masiva y la información personal, mezcladas en una línea infinita de publicaciones (aunque ciertas noticias sigan sin verse). Tener más en claro cómo se produce ese cruce es lo que busca esclarecer el estudio. Y lograr una mayor transparencia para la distribución de contenido que, para un número significativo de personas, llega vía Facebook.
El filtro noticioso, que antes era social y compartido, depende hoy de un algoritmo