En Facebook tampoco somos todos iguales
Días atrás The Wall Street Journal publicó una serie de reportajes con documentos internos de Facebook que obtuvieron sus periodistas. La serie incluyó artículos en los que se hicieron públicos documentos en los que se asegura que Facebook sabía que Instagram está dañando a las adolescentes con sus prácticas y otros en los que se denuncia cómo los partidos políticos modificaron sus prácticas de contenidos en acuerdo con la empresa para seguir teniendo espacios privilegiados.
Pero otro de los informes vuelve a dejar en evidencia los problemas que Facebook, igual que todas las otras plataformas, tiene para moderar los contenidos que circulan en ella.
La moderación en redes y plataformas sociales es el proceso de revisión, selección y eventual eliminación de los contenidos generados por los usuarios (User Generated Content, UCG por sus siglas en inglés) y la actividad en las plataformas sociales de internet. El componente básico de cómo funciona la moderación es la existencia de reglas, guías, restricciones y políticas de funcionamiento que los usuarios aceptan al comenzar a usarlas y que pueden ser actualizadas durante su uso.
ANA LAURA PÉREZ
Esas reglas y guías son lo que conocemos como Términos y Condiciones o Normas Comunitarias.
Para moderar esos contenidos, las redes sociales usan enormes equipos humanos (unos 15 mil en el caso de Facebook) tercerizados en otras empresas (Facebook tiene un acuerdo con Accenture, entre otras) que revisan cientos de miles de mensajes y posteos por hora y deciden si cumplen o no con las reglas y si deben seguir publicados o no, reducido su alcance y varias otras sanciones previs- tas más.
También utilizan, porque los humanos son muy caros y a veces deben irse a sus casas en medio de un lock down provocado por una pandemia, herramientas de inteligencia artificial que deciden si lo que publicamos es o no aceptado.
Pero volvamos a lo que Facebook sabía pero no nos dijo. En las redes sociales no somos todos iguales, algunos pueden decir ciertas cosas y otras no. Solo hacía falta estar en una lista selecta y prolijamente alimentada por ejecutivos de la compañía que lidera Mark Zuckerberg.
La lista, llamada internamente Xcheck o crosscheck, no es otra cosa que una nómina de ciudadanos VIP de las redes sociales cuyos contenidos que violaran las reglas de funcionamiento no podían ser eliminados, o al menos no tan fácil como nos ocurre al resto de nosotros.
Esos contenidos son revisados por un equipo especializado de moderadores mejor preparados e incluso por ejecutivos de alto rango de Facebook.
Tal vez por eso cuando Penelope Cruz publicó en Instagram el afiche de su última película con Pedro Almodóvar en la que se ve un pezón desnudo con una gota de leche, nada ocurrió y cuando lo mismo hizo el autor del afiche, su cuenta fue suspendida.
Según la investigación de The Wall Street Journal, Neymar era uno de los que integraban esa lista que a 2020 tenía más de 5.800.000 nombres. Por eso pudo publicar en 2019 fotos de una mujer desnuda que lo acusaba de violarla, en sus cuentas sin que esos contenidos fueran eliminados. La desnudez es uno de los contenidos más rápidamente eliminados de la red, sin embargo, ser parte de Xcheck protegió a Neymar.
Según el propio informe de Facebook, ese posteo -con fotos que mostraban desnuda a una mujer que lo acusa de violarlafue visto por 56 millones de personas.
Tema para un texto aparte sería reflexionar sobre si son las empresas las que tienen que regular lo que podemos o no podemos decir en un espacio de intercambio público, aunque sea propiedad de una empresa privada. Como un restaurante por más privado que sea tiene que sacar la sal de las mesas o ceñirse a estrictos protocolos para proteger a sus clientes del covid.
Lo que sí es claro, es que deberíamos saber mucho más de lo que sabemos sobre cómo se decide qué podemos decir y qué no, quiénes lo ven y quiénes no.
Xcheck o crosscheck, una nómina de ciudadanos VIP dentro de las redes sociales.