No se puede disparar al presidente y sí pegar a niños obesos
Salen a la luz los criterios de censura de Facebook
Por primera vez se ha tenido acceso a los documentos que usa Facebook para explicar a sus moderadores qué contenidos, de los que publican los más de 1.800 millones de usuarios con los que cuenta en la actualidad esta red social en todo el mundo, hay que permitir, cuáles hay que eliminar –a Facebook le horroriza la palabra censura– y qué acciones hay que tomar en cada caso. Ha sido el periódico británico The Guardian el que se ha hecho con la hasta ahora desconocida información y la ha publicado en su web este fin de semana.
El rotativo británico ha visto más de 100 manuales internos de capacitación, hojas de cálculo y diagramas que dan una visión de los criterios que Facebook ha utilizado para moderar temas como la violencia, el discurso de odio, el terrorismo, la pornografía, el racismo y el contenido autodestructivo. Incluso hay pautas sobre el canibalismo.
Facebook cuenta con un ejército de 4.500 moderadores humanos y, a principios de este mes, Mark Zuckerberg –el presidente de la compañía– anunció que se iban a contratar 3.000 más. Este movimiento ocurría después de las críticas que había recibido, la empresa después de que la plataforma fuera utilizada para transmitir actos como el homicidio de una bebé en Tailandia y un asesinato en Cleveland, en el que un hombre mostró cómo disparaba a otro aparentemente al azar. Sin olvidar, además, la polémica sobre el papel que jugaron las noticias falsas que se publicaron en Facebook durante la campaña sobre el resultado final de las últimas elecciones presidenciales en Estados Unidos.
Según el profesor de los estudios de la Información y la Comunicación de la UOC, Ferran Lalueza, en este contexto Facebook se ve obligada a “respetar la libertad de expresión de la red y evitar acusaciones de censura, al mismo tiempo que debe hacer frente a las críticas por ser poco ágil” a la hora de evitar los contenidos inapropiados.
Por su parte, Gemma Vallet, directora del programa Social Media Branding & Digital Strategy de La Salle-Universitat Ramon Llull, cree que uno de los mayores retos a los que se enfrenta Facebook es que “ha crecido a una gran velocidad y eso ha terminado siendo un problema para poder controlar la cantidad enorme de contenidos que se publican en el sitio”. Para Vallet, una cosa es “controlar los contenidos de una red social, y otra los de un medio editorial, que es en lo que se ha convertido Facebook. Las reglas de una y otro son distintas”. En este sentido, Josep Lluís Micó, profesor de Periodismo de la URL, dice que “Facebook no es exactamente un medio editorial. Es otra cosa, para la que aún no tenemos una teoría explicativa, y por tanto no se puede regular con las mismas herramientas y esquemas que los medios tradicionales”. Además –según Micó– Facebook se ve obligada a “tomar decisiones de una gran envergadura en muy poco tiempo”, lo que complica aún más el escenario. De hecho, “lo que se le pide a Facebook es que actúe con una finezza que no casa con el entorno virtual en el que se mueve”, opina este profesor de periodismo, y por tanto es complicado que llegue a controlar todo lo que se publica de forma eficaz. “Si a veces en periódicos con circulaciones más modestas se escapan cosas inapropiadas, con el volumen que tiene Facebook la tarea es absolutamente imposible”, concluye Micó.
Respecto a los aspectos concretos de las políticas de moderación que ha hecho públicas The Guardian, Ferran Lalueza opina que “son parches y que falta una política clara, más estructurada y más coherente”. Y es que sin duda puede sorprender que en estas normas de uso se considere –por ejemplo–, más grave una expresión como ‘Que alguien dispare a Trump’ porque el presidente de Estados Unidos pertenece a una categoría de personas protegidas, que otra que explica como estrangular a una mujer, porque entra dentro de la categoría de amenazas que –según los criterios de la red social–, no resultan creíbles. Para Josep Lluís Micó, del análisis de las mismas se puede desprender que lo que intentan, en general, “es ponderar si aquello que se dice o se publica es sólo algo desafortunado –en cuyo caso no se elimina– o algo que realmente se llevará a cabo”. Para Gemma Vallet, estas directrices siguen “el típico protocolo de la gestión de crisis, y siguen las pautas usadas para moderar las redes sociales, pero no las destinadas a controlar los contenidos de un medio de comunicación”.
“Es una plataforma que ha crecido a gran velocidad, lo que dificulta el control” Se trata de un medio que en poco tiempo ha de tomar resoluciones importantes
En uno de los documentos filtrados –por ejemplo–, Facebook reconoce que “la gente usa el lenguaje violento para expresar su frustración en línea” y siente que no se volverá en su contra e indiferente hacia la persona a la que está amenazando, debido a la falta de empatía
creada por la comunicación a través de dispositivos, en comparación con el cara a cara. Desde esta perspectiva, Facebook considera expresiones como ‘Voy a matarte’ o ‘Jódete y muérete’ como “no creíbles y sólo como una expresión violenta de aversión y frustración”. Además, la red social añade –en estos documentos– que “la gente suele expresar desdén o desacuerdo amenazando o llamando a la violencia de una manera generalmente ficticia y sin hacerlo de una forma seria”.
En general, la red social se muestra más permisiva con las fotografías que con los vídeos, aunque muestren el mismo tipo de contenidos, especialmente en el caso de las que muestran algún tipo de maltrato hacia los animales. También puede causar asombro que, por ejemplo, se justifique la publicación de determinadas imágenes “porque pueden ayudar a la toma de conciencia” sobre determinados temas. En este sentido, Josep Lluís Micó recuerda que sin la publicación de algunas de estas fotografías “no se hubieran conocido, por ejemplo, determinados casos de violencia policial”. A Gemma Vallet, por contra, le rechina que bajo la palabra perturbador (disturbing, en inglés) Facebook permita muchos contenidos desafortunados, que se limita a marcar para que sean distribuidos sólo a su audiencia adulta, y con la advertencia de que su visionado puede herir sensibilidades.
Quizás en el futuro será la inteligencia artificial la que decida qué podemos subir y que no podemos subir a nuestro perfil de Facebook, aunque hasta ahora la experiencia de la red social en este sentido ha sido también problemática, como en el caso de la famosa foto de la niña de la guerra de Vietnam que el algoritmo censuró. Vallet se muestra más bien pesimista en este sentido, pues aunque cree que aún hay mucho recorrido en este campo, “la inteligencia artificial todavía no tiene el control de todos los matices. Además, Facebook está presente en todo el mundo, con lo cual debería contener las peculiaridades culturales y legales de cada país. Y por último, sería necesario saber si Facebook tiene los recursos para hacer estos desarrollos y, sobre todo, si está dispuesta a gastárselo en esto”.
Por su parte, Micó se muestra mucho más optimista y cree “que, con criterios bien informados y criterios morales bien establecidos”, la inteligencia artificial puede ser la solución.
No se permite amenazar a Trump, pero si explicar cómo estrangular a una mujer Ahora mismo no tiene todo el control de los matices para ser una herramienta efectiva