Diario Libre (Republica Dominicana)
Facebook se une al impulso de Silicon Valley para aparecer responsable
El grupo de medios sociales tomó medidas en 2019 para abordar la preocupación acerca de su impacto, pero los críticos tildaron sus reformas de movidas cosméticas
En 2019, los esfuerzos de Mark Zuckerberg representaron el signo más visible de los intentos de Silicon Valley de reformarse.
Por vez primera, Facebook pasó de responder tardíamente a las reacciones en contra de su impacto negativo en el mundo a tratar de abordar esos problemas proactivamente.
Y, a principios de año, el director ejecutivo de Facebook presentó una directa y sorprendente solicitud ante el Congreso: por favor regulen las plataformas de Internet como la nuestra.
Eso coincidió con un cambio radical en Silicon Valley, conforme las grandes compañías impulsadas por la publicidad, desde Google hasta Twitter, se dieron cuenta de que la regulación se avecinaba y comenzaron a hacer ajustes a sus procesos y políticas para alentar a los políticos y a los organismos de control a que no fueran demasiado rígidos.
Sin embargo, para fines de año, el Sr. Zuckerberg en particular había hecho poco para persuadir a los escépticos de que su negocio, el cual registró ingresos trimestrales récord de US$17.6 mil millones en octubre, tenía verdaderas aspiraciones de construir una sociedad mejor para sus 2.4 mil millones de usuarios activos mensuales.
De hecho, los críticos más severos de la compañía han opinado que los cambios de Facebook han sido meramente “cosméticos”, asegurándose de que nada perjudique un modelo de negocio que, según dicen ellos, se basa en acumular cantidades de datos de los usuarios, lo cual les permite a las marcas estrechamente focalizar sus productos y promover contenido divisivo en la batalla por la atención de los usuarios.
Entonces, ¿Facebook — y por extensión Silicon Valley — está realmente tomándose en serio cambiar para ser mejor?
Los expertos han indicado que el cambio de lo que algunos han descrito como la histórica mentalidad de un “crecimiento a toda costa” de Facebook ha sido lento y titubeante.
Pero, en 2018, el escándalo de Cambridge Analytica — en el cual una compañía de datos del Reino Unido fue acusada de inapropiadamente acceder la información de los usuarios de Facebook — obligó a la compañía a realizar un cambio de estrategia.
El escándalo destacó algunas de las particularidades del modelo de negocio impulsado por anuncios de Facebook y de otros grupos de medios sociales: el poder ofrecerles a los vendedores “microtargeting”, o microfocalización — lo cual les permite concentrarse en pequeños grupos de usuarios —, y el uso de algoritmos que promueven contenido extremo y provocativo porque atrae la atención.
Mientras tanto, la clara evidencia de la interferencia rusa en las elecciones estadounidenses de 2016 — la cual el Sr. Zuckerberg en una ocasión tildara de “idea loca” — reveló que existían brechas en la supervisión de Facebook en cuanto a su contenido.
En 2019, la compañía comenzó a hacer más para activamente abordar las preocupaciones acerca de su impacto en el mundo, conforme los reguladores de EEUU y de la Unión Europea (UE) comenzaron a enfocarse en la empresa cada vez más. Como parte de los esfuerzos para eliminar el contenido tóxico, y la desinformación en particular, el grupo ha expandido sus equipos de seguridad y de protección — a 35,000 personas actualmente, incluyendo a trabajadores independientes — y ha comenzado a publicar detalles de sus actividades de moderación, actualizando sus políticas y empleando a verificadores de datos.
Los datos publicados por la compañía sugieren que se ha vuelto más eficiente en controlar el contenido nocivo: el 80% del contenido marcado como posible “discurso de odio” es evaluado por sistemas automatizados y por moderadores humanos antes de que los usuarios lo reporten, en comparación con el 53% hace un año, por ejemplo.
No obstante, el volumen de publicaciones problemáticas todavía parece estar aumentando. Facebook tomó medidas en relación con 7 millones de ejemplos de discurso de odio durante el último trimestre, más del doble de los 2.9 millones durante el mismo período hace un año. Mientras tanto, la cantidad de cuentas falsas que Facebook ha eliminado en 2019 ha sido de 5.4 mil millones, muchas veces más la cantidad de cuentas reales en toda la plataforma.