Ratifican el rol negativo del algoritmo de facebook en el ataque al capitolio
Nuevos documentos internos revelan que los empleados de la compañía veían con preocupación desde antes del asalto al Congreso cómo la plataforma ayudaba a la radicalización de los trumpistas.
Mientras el Capitolio, en Washington, sufría el ataque de una turba de seguidores de Donald Trump, el 6 de enero, la red social más grande del mundo, Facebook, vivía una insurrección tan revulsiva a miles de kilómetros de distancia, en Califronia, con cientos de empleados furiosos por el papel de la plataforma en la construcción del clima que llevó a esa violencia y hasta en su organización.
Al mismo tiempo que se desarrollaba el asalto a la sede del Congreso norteamericano, los ingenieros de Facebook ajustaban los controles internos para frenar la propagación de desinformación y contenidos incitadores, conscientes del rol jugado por la red en toda la situación.
Se decidió entonces, en forma emergencial, vetar a Trump en Facebook, suspender los comentarios en los grupos con antecedentes de discursos de odio, filtrar el lema “Stop the Steal” (Paren el robo), utilizado por sus seguidores y por el propio presidente para negar el resultado de las elecciones y etiquetar a Estados Unidos como “lugar de alto riesgo temporal” por violencia política.
Esos esfuerzos se desarrollaban en un clima interno de creciente frustración entre los empleados de Facebook, que veían una respuesta vacilante de la empresa al aumento del extremismo en Estados Unidos.
“¿No hemos tenido tiempo suficiente para averiguar cómo gestionar el discurso sin permitir la violencia?”, escribió un empleado en un tablero de mensajes interno mientras las cámaras de televisión mostraban a todo el mundo los disturbios del 6 de enero. “Hemos estado alimentando este fuego durante mucho tiempo y no debería sorprendernos que ahora esté fuera de control”.
Es una pregunta que todavía pende sobre la compañía hoy, mientras el Congreso y los reguladores investigan el rol de Facebook en los disturbios del 6 de enero. Ahora apareció un nuevo “topo”, ex empleado, que acusa a la red social de Mark Zuckerberg de haber permitido la propagación del odio y la desinformación con fines de lucro.
Algunos documentos entregados a las autoridades estadounidenses revelan las alarmas de los empleados ignoradas y sobre todo decisiones de la empresa sobre la difusión generalizada de contenidos peligrosos, con el objetivo de polarizar la opinión pública antes y después de las elecciones presidenciales de noviembre de 2020.
Las nuevas acusaciones hechas contra Facebook están en línea con las formuladas por Frances Haugen, la ex empleada de la empresa que también testificó en el Congreso de los Estados Unidos. La red social, según la acusación del segundo “topo”, se ha negado reiteradamente a aplicar las normas de seguridad vigentes para todos los “amigos” de Facebook a Donald Trump y sus aliados, por temor a enfurecerlos y, en consecuencia, pagar un precio en términos de crecimiento de la empresa.
Los documentos internos proporcionados por los dos ex empleados sugieren que la empresa fue sorprendida por el estallido de la violencia. Rápidamente quedó claro que, incluso después de años de haber sido investigada por la poca vigilancia que aplicaba a los contenidos de los posteos, pasó por alto cómo los trumpistas prometían en Facebook que impedirían que el Congreso certificara la victoria de Joe Biden, lo que intentaron hacer ese día.
Los documentos también parecen reforzar la afirmación de Haugen de que Facebook antepuso su crecimiento y sus ganancias a la seguridad pública, lo que permite inferir que sus dos objetivos declarados -salvaguardar su negocio y proteger la democracia- se volvieron contradictorios en esos días.
Después del asalto, como surge del testimonio de Haugen, Facebook volvió a apelar a una serie de medidas de control para frenar la difusión de contenidos peligrosos o violentos, que ya había utilizado durante la campaña electoral de 2020, pero que desactivo en su mayoría después de los comicios. “En cuanto las elecciones concluyeron, las volvieron a desactivar o cambiaron la configuración a lo que era antes, para priorizar el crecimiento sobre la seguridad”, afirmó Haugen.
De hecho, los datos recopilados por un empleado de Facebook revelaron que en la semana siguiente a las elecciones estadounidenses, el 10% del contenido político visto en Estados Unidos no eran más que publicaciones sobre fraude electoral.
Un informe interno de Facebook posterior al 6 de enero –reportado previamente por BuzzFeed– reprochaba a la compañía por tener un enfoque “poco sistemático” ante el rápido crecimiento de las páginas “Stop the Steal”, las fuentes de desinformación relacionadas y los comentarios violentos e incendiarios.
Oficialmente, la compañía destaca que calibra cuidadosamente sus controles para reaccionar rápidamente a los picos de contenido de odio y violencia, como hizo el 6 de enero y, al mismo tiempo que sostiene que no es responsable de las acciones de los agresores, destaca que tener controles más estrictos antes de ese día no habría evitado lo que pasó.
La vocera de Facebook, Dani Lever, subrayó que las decisio