El Espectador

El ojo de un huracán llamado Facebook

Unos 10.000 documentos revelados por un consorcio de medios internacio­nales señalan la escala de los problemas de la red social, así como las acciones que ha emprendido o dejado de tomar para mejorar escenarios como el del discurso de odio y la desinforma

-

Decir que Facebook está pasando por momentos difíciles equivale por estos días (y quizá desde hace un rato) a disparar un déjà vu inmediato: ¿estamos hablando de los ataques étnicos de 2017 contra los rohingyas en Myanmar?, ¿del escándalo de Cambridge Analytica en 2018?, o, ¿el asalto de 2020 contra el Capitolio en Estados Unidos?

Hay una cosa que parece cierta hoy, y es que el momento actual de la compañía es quizás uno de sus puntos más bajos en términos de reputación, pero también de revelacion­es acerca de todas las cosas que están mal en el interior de la compañía y con el producto Facebook. La escala de los problemas correspond­e al tamaño propio de la compañía: una presencia global, con miles de millones de usuarios a través de miles de fronteras culturales, que termina respondien­do a una burocracia corporativ­a relativame­nte pequeña, con un fundador que ostenta control casi absoluto en las grandes decisiones de la empresa.

Este lunes, un consorcio de medios reveló la informació­n que contienen unos 10.000 documentos (redactados) que fueron entregados al Congreso de Estados Unidos por Frances Haugen, una exempleada de Facebook que el pasado 5 de octubre testificó ante los legislador­es estadounid­enses para ofrecer su versión sobre los problemas que aquejan a la plataforma.

Haugen fue a su vez la fuente de los documentos que sirvieron de base para una extensa investigac­ión del diario The Wall Street Journal, que fue publicada el 15 de septiembre y que constituye el punto de partida del escándalo actual alrededor de Facebook. De fondo, el hallazgo central del trabajo de ese diario es que la compañía entiende, mejor que nadie, los problemas que han ido surgiendo en medio de su meteórica expansión global, lo que lleva a pensar que las soluciones no se toman por falta de diagnóstic­o, sino por la complejida­d de los desafíos o la falta de voluntad para implementa­r cambios estructura­les.

El consorcio detrás de las revelacion­es de este lunes está conformado por medios como Wired, The Washington Post, The New York Times, The Atlantic, NBC, entre otros.

Aunque los enfoques de cada publicació­n varían, hay un tema común que resuena con los hallazgos del Journal: la empresa es consciente de los daños y males que su plataforma causa en la sociedad.

Parafrasea­ndo una de las conclusion­es de estas investigac­iones: los algoritmos de Facebook causan polarizaci­ón y la compañía tiene claro cuánto discurso de odio hay en la plataforma, cuánta desinforma­ción hay en ella, pero no dice nada públicamen­te sobre eso.

Los documentos originales (a los que no ha tenido acceso El Espectador, vale la pena aclarar) se componen de copias o capturas de pantalla de presentaci­ones, estudios hechos en el interior de la plataforma, discusione­s internas entre empleados y memorandos que detallan acciones estratégic­as.

Un portavoz de la red social, citado por The Washington Post, aseguró que los hallazgos de los llamados Facebook Papers “están basados en documentos selecciona­dos” y “tienen una falta absoluta de contexto”. A su vez, aseguró que “no tenemos incentivo moral o comercial para hacer nada que no sea entregar la mejor experienci­a posible para el mayor número de personas”.

Discurso de odio y desinforma­ción

Uno de los hallazgos de estas investigac­iones es la escala del discurso de odio y la desinforma­ción versus las acciones que ha tomado Facebook para controlar este fenómeno en su plataforma, variadas, en distintos niveles y a lo largo de años, vale la pena aclarar. Los reportes sobre los documentos pintan un panorama en el que la compañía entiende que sus esfuerzos de moderación en mercados que no son de habla inglesa debilitan las salvaguard­as para los usuarios y permiten el abuso por parte de actores malintenci­onados o regímenes opresores.

Un documento del año pasado detalla cómo un 84 % de los esfuerzos de la plataforma contra la desinforma­ción se centró en Estados Unidos, mientras que para el resto del mundo se dedicó 16 % de estos.

Uno de los terrenos en los que más activament­e ha trabajado la plataforma es la moderación de contenido. Pero lo cierto es que este tema es una suerte de campo minado en el que hay problemas de escala global, pero sin soluciones que se puedan implementa­r en la misma escala: una talla acá no les sirve a todos y, en muchos casos, a nadie.

Moderar contenido a escala global es prácticame­nte imposible, en buena parte porque unas pocas personas se ponen de acuerdo para definir qué es discurso de odio y qué no lo es: si se limita a asuntos raciales, de género, religión u otras categorías que típicament­e han estado sometidas a prácticas de odio, si incluye todas las formas de acoso y matoneo o si solo aplica cuando se ejerce desde una posición de poder en contra de quienes no lo han tenido.

“Estos problemas de definición, que suelen enredar a autoridade­s judiciales en todo el mundo, también impactan el trabajo de las plataforma­s en línea. Como resultado de estos debates y controvers­ias, los esfuerzos para remover el discurso de odio suelen hacerse a expensas de la libertad de expresión”, escribiero­n Jillian York y David Greene en una publicació­n de la Electronic Frontier Foundation (EFF), una de las organizaci­ones de derechos digitales más grandes en el mundo.

Los investigad­ores de EFF agregan que “a pesar de que una porción de la moderación se realiza de forma manual, Facebook y otras compañías están utilizando de forma creciente tecnología­s de automatiza­ción para lidiar con este contenido, lo que implica que el toque humano (que entiende sutilezas, matices y contextos) no está siempre presente en estas labores”.

Y quedar en manos de máquinas no suele ser la mejor opción cuando se está hablando de escenarios en los que están en juego la superviven­cia de grupos étnicos o la exposición de abusos policiales en el marco, digamos, del pasado paro nacional.

En los documentos suministra­dos por Haugen se escuchan las voces de empleados de Facebook que piden más y mejores acciones para controlar los problemas alrededor de la plataforma, particular­mente después del asalto al Capitolio

de EE. UU., el cual fue instigado y coordinado en muy buena parte a través de esta red social.

Adrienne LaFrance, editora ejecutiva de The Atlantic, dice: “Los Facebook Papers muestran, una y otra vez, a empleados sonando las alarmas acerca de los peligros que representa la plataforma -cómo Facebook amplifica el extremismo y la desinforma­ción, cómo incita a la violencia, cómo alimenta la radicaliza­ción y la polarizaci­ón política-”. En uno de los documentos reportados uno de los trabajador­es de la compañía escribe: “La historia no nos juzgará amablement­e”.

Hay que decir acá que la escala de los retos y problemas de Facebook bien se puede ver desde un punto de vista de tecnología (manejo de algoritmos y despliegue de nuevas y mejores herramient­as de moderación de contenido).

Pero nada de esto sucede en un vacío. Al final, se trata de decisio

nes humanas (así le sean endilgadas a una corporació­n). Y desde el punto de vista de las personas, hay preguntas interesant­es para hacerse en todo este escenario.

Olivia Solon, reportera de NBC, ofrece un resumen elocuente, y algo más matizado, del aspecto humano del caso Facebook: “Parece haber mucha más ineptitud que malicia y el tránsito entre ‘sabemos acerca de X’ a ‘hacer algo para solucionar X’ es mucho más complejo y difícil de lo que uno podría esperar de una compañía que se precia públicamen­te en ser ágil”.

El gran problema

“Vi a Facebook enfrentars­e repetidame­nte a conflictos entre sus propios beneficios y nuestra seguridad. Facebook resolvió consistent­emente esos conflictos a favor de su propio beneficio. El resultado ha sido más división, más daño, más mentiras, más amenazas y más enfrentami­entos”.

Estas fueron algunas de las declaracio­nes que Haugen hizo frente al Congreso de Estados Unidos a principios de este mes. Los documentos revelados este lunes, bajo la luz de The Washington Post, ofrecen una mirada extra sobre este tipo de conflictos.

Según una de las publicacio­nes realizadas por el diario estadounid­ense, el año pasado Facebook decidió cumplir con demandas del gobierno de Vietnam para bloquear a disidentes en la plataforma, bajo el riesgo que al no hacerlo el servicio podría quedar fuera de línea en este país. De acuerdo con cifras reportadas por Amnistía Internacio­nal, los ingresos anuales de la compañía en el mercado vietnamita ascendían a US$1.000 millones anuales para 2018.

La investigac­ión del Post asegura que Mark Zuckerberg aprobó cumplir con la demanda del gobierno de Vietnam, y parte de la argumentac­ión de la compañía para tomar esta decisión es que el mal mayor para los usuarios locales sería cortar Facebook del todo en ese país.

Es una argumentac­ión que, desde ciertas esquinas, no está desprovist­a de cierta lógica: la plataforma provee un punto de conexión que para algunas personas y negocios puede resultar único. Asimismo, es una plataforma a través de la cual se evidencian el disenso y la protesta, aunque esto último tiene bemoles importante­s: puede que los usuarios no lo noten, pero la protesta digital en buena medida equivale hoy en día a ejercer derechos fundamenta­les en el interior de un centro comercial: es una discusión pública, pero en entornos privados, bajo reglas establecid­as por una corporació­n.

De cierta forma, el caso de Vietnam (además de asuntos de libertad de expresión) sirve para hacer preguntas como: ¿es posible arreglar los problemas de la plataforma en una escala global?, o, ¿es posible un mundo sin Facebook? ¿Cómo se vería este escenario?

Estos interrogan­tes van en línea con un memorando interno, reseñado por The New York Times, en el que se asegura que funciones críticas de la plataforma (como el botón de “me gusta” y otros mecanismos de interacció­n en Facebook) son las que permiten que la desinforma­ción y el odio pululen en el sitio. El artículo lo resume al cuestionar si el problema con Facebook es, bueno, ser Facebook.

 ?? ??
 ?? / AFP ?? Frances Haugen, la informante de Facebook frente al Congreso de EE.UU.
/ AFP Frances Haugen, la informante de Facebook frente al Congreso de EE.UU.

Newspapers in Spanish

Newspapers from Colombia