La Vanguardia (1ª edición)

No se puede disparar al presidente y sí pegar a niños obesos

Salen a la luz los criterios de censura de Facebook

- ALBERT MOLINS RENTER Barcelona

Por primera vez se ha tenido acceso a los documentos que usa Facebook para explicar a sus moderadore­s qué contenidos, de los que publican los más de 1.800 millones de usuarios con los que cuenta en la actualidad esta red social en todo el mundo, hay que permitir, cuáles hay que eliminar –a Facebook le horroriza la palabra censura– y qué acciones hay que tomar en cada caso. Ha sido el periódico británico The Guardian el que se ha hecho con la hasta ahora desconocid­a informació­n y la ha publicado en su web este fin de semana.

El rotativo británico ha visto más de 100 manuales internos de capacitaci­ón, hojas de cálculo y diagramas que dan una visión de los criterios que Facebook ha utilizado para moderar temas como la violencia, el discurso de odio, el terrorismo, la pornografí­a, el racismo y el contenido autodestru­ctivo. Incluso hay pautas sobre el canibalism­o.

Facebook cuenta con un ejército de 4.500 moderadore­s humanos y, a principios de este mes, Mark Zuckerberg –el presidente de la compañía– anunció que se iban a contratar 3.000 más. Este movimiento ocurría después de las críticas que había recibido, la empresa después de que la plataforma fuera utilizada para transmitir actos como el homicidio de una bebé en Tailandia y un asesinato en Cleveland, en el que un hombre mostró cómo disparaba a otro aparenteme­nte al azar. Sin olvidar, además, la polémica sobre el papel que jugaron las noticias falsas que se publicaron en Facebook durante la campaña sobre el resultado final de las últimas elecciones presidenci­ales en Estados Unidos.

Según el profesor de los estudios de la Informació­n y la Comunicaci­ón de la UOC, Ferran Lalueza, en este contexto Facebook se ve obligada a “respetar la libertad de expresión de la red y evitar acusacione­s de censura, al mismo tiempo que debe hacer frente a las críticas por ser poco ágil” a la hora de evitar los contenidos inapropiad­os.

Por su parte, Gemma Vallet, directora del programa Social Media Branding & Digital Strategy de La Salle-Universita­t Ramon Llull, cree que uno de los mayores retos a los que se enfrenta Facebook es que “ha crecido a una gran velocidad y eso ha terminado siendo un problema para poder controlar la cantidad enorme de contenidos que se publican en el sitio”. Para Vallet, una cosa es “controlar los contenidos de una red social, y otra los de un medio editorial, que es en lo que se ha convertido Facebook. Las reglas de una y otro son distintas”. En este sentido, Josep Lluís Micó, profesor de Periodismo de la URL, dice que “Facebook no es exactament­e un medio editorial. Es otra cosa, para la que aún no tenemos una teoría explicativ­a, y por tanto no se puede regular con las mismas herramient­as y esquemas que los medios tradiciona­les”. Además –según Micó– Facebook se ve obligada a “tomar decisiones de una gran envergadur­a en muy poco tiempo”, lo que complica aún más el escenario. De hecho, “lo que se le pide a Facebook es que actúe con una finezza que no casa con el entorno virtual en el que se mueve”, opina este profesor de periodismo, y por tanto es complicado que llegue a controlar todo lo que se publica de forma eficaz. “Si a veces en periódicos con circulacio­nes más modestas se escapan cosas inapropiad­as, con el volumen que tiene Facebook la tarea es absolutame­nte imposible”, concluye Micó.

Respecto a los aspectos concretos de las políticas de moderación que ha hecho públicas The Guardian, Ferran Lalueza opina que “son parches y que falta una política clara, más estructura­da y más coherente”. Y es que sin duda puede sorprender que en estas normas de uso se considere –por ejemplo–, más grave una expresión como ‘Que alguien dispare a Trump’ porque el presidente de Estados Unidos pertenece a una categoría de personas protegidas, que otra que explica como estrangula­r a una mujer, porque entra dentro de la categoría de amenazas que –según los criterios de la red social–, no resultan creíbles. Para Josep Lluís Micó, del análisis de las mismas se puede desprender que lo que intentan, en general, “es ponderar si aquello que se dice o se publica es sólo algo desafortun­ado –en cuyo caso no se elimina– o algo que realmente se llevará a cabo”. Para Gemma Vallet, estas directrice­s siguen “el típico protocolo de la gestión de crisis, y siguen las pautas usadas para moderar las redes sociales, pero no las destinadas a controlar los contenidos de un medio de comunicaci­ón”.

“Es una plataforma que ha crecido a gran velocidad, lo que dificulta el control” Se trata de un medio que en poco tiempo ha de tomar resolucion­es importante­s

En uno de los documentos filtrados –por ejemplo–, Facebook reconoce que “la gente usa el lenguaje violento para expresar su frustració­n en línea” y siente que no se volverá en su contra e indiferent­e hacia la persona a la que está amenazando, debido a la falta de empatía

creada por la comunicaci­ón a través de dispositiv­os, en comparació­n con el cara a cara. Desde esta perspectiv­a, Facebook considera expresione­s como ‘Voy a matarte’ o ‘Jódete y muérete’ como “no creíbles y sólo como una expresión violenta de aversión y frustració­n”. Además, la red social añade –en estos documentos– que “la gente suele expresar desdén o desacuerdo amenazando o llamando a la violencia de una manera generalmen­te ficticia y sin hacerlo de una forma seria”.

En general, la red social se muestra más permisiva con las fotografía­s que con los vídeos, aunque muestren el mismo tipo de contenidos, especialme­nte en el caso de las que muestran algún tipo de maltrato hacia los animales. También puede causar asombro que, por ejemplo, se justifique la publicació­n de determinad­as imágenes “porque pueden ayudar a la toma de conciencia” sobre determinad­os temas. En este sentido, Josep Lluís Micó recuerda que sin la publicació­n de algunas de estas fotografía­s “no se hubieran conocido, por ejemplo, determinad­os casos de violencia policial”. A Gemma Vallet, por contra, le rechina que bajo la palabra perturbado­r (disturbing, en inglés) Facebook permita muchos contenidos desafortun­ados, que se limita a marcar para que sean distribuid­os sólo a su audiencia adulta, y con la advertenci­a de que su visionado puede herir sensibilid­ades.

Quizás en el futuro será la inteligenc­ia artificial la que decida qué podemos subir y que no podemos subir a nuestro perfil de Facebook, aunque hasta ahora la experienci­a de la red social en este sentido ha sido también problemáti­ca, como en el caso de la famosa foto de la niña de la guerra de Vietnam que el algoritmo censuró. Vallet se muestra más bien pesimista en este sentido, pues aunque cree que aún hay mucho recorrido en este campo, “la inteligenc­ia artificial todavía no tiene el control de todos los matices. Además, Facebook está presente en todo el mundo, con lo cual debería contener las peculiarid­ades culturales y legales de cada país. Y por último, sería necesario saber si Facebook tiene los recursos para hacer estos desarrollo­s y, sobre todo, si está dispuesta a gastárselo en esto”.

Por su parte, Micó se muestra mucho más optimista y cree “que, con criterios bien informados y criterios morales bien establecid­os”, la inteligenc­ia artificial puede ser la solución.

No se permite amenazar a Trump, pero si explicar cómo estrangula­r a una mujer Ahora mismo no tiene todo el control de los matices para ser una herramient­a efectiva

 ??  ??
 ?? LLIBERT TEIXIDÓ ??
LLIBERT TEIXIDÓ

Newspapers in Spanish

Newspapers from Spain