Facebook aclara dónde pone el límite
La red social cree que lo más difícil es entender el contexto de lo que se publica
Monika Bickert, responsable de toda las políticas de uso de Facebook, ha publicado un extenso post en el blog de esta red social para aclarar algunos aspectos sobre la política de moderación que Facebook usa para discriminar los contenidos que sus usuarios pueden y no pueden publicar en sus muros.
Esto, después de que a lo largo de esta semana el periódico británico
The Guardian haya publicado documentos internos de Facebook a este respecto. Ayer mismo, este mismo rotativo publicaba un reportaje sobre las condiciones de trabajo de los moderadores, en los que uno de ellos explicaba que estaban mal pagados –15 dólares a la hora (13,40 euros)– y se quejaba de la dureza psicológica de su tarea, y de la poca ayuda que recibían en este aspecto.
Bickert explica en primer término que revisar lo que publican más de 1.000 millones de usuarios cada día “es un desafío, pero es esencial” y añade que diseñar políticas que respeten la seguridad de las personas, pero que les permitan compartir libremente información implica “comprender los problemas sociales emergentes y la forma en que estos se manifiestan en internet, así como ser capaces de responder rátido,
pidamente a millones de informes semanales de personas de todo el mundo”, que reciben los moderadores de Facebook cuando algo les parece inapropiado. La responsable de la compañía recuerda, en este sentido, que la red social recibe
tanto críticas de aquellos que quieren más censura como de aquellos que quieren más libertad de expresión.
Bickert reconoce que la tarea más ardua para los moderadores es “entender el contexto”, ya que a veces
es difícil entender la intención que esconde un post o el riesgo que puede implicar una determinada publicación. Además recuerda que Facebook está presente en todo el mundo y lo que es legal en un país puede no serlo en otro. En este sen- Brickert dice que “la ley puede servir de guía, pero muchas veces lo que marca la diferencia entre lo que es aceptable y lo que no lo es son las normas sociales y las expectativas”, y raramente hay estándares legales que arrojen luz sobre una cuestión.
Bricket justifica el secreto que hasta ahora existía sobre las directrices que Facebook daba a sus moderadores de contenido en que de este modo se quería evitar animar a los usuarios a encontrar atajos para saltárselas.
Y entrando en casos concretos, la jefe de Facebook dice en su post, por ejemplo, que la red social recibe indicaciones de muchos expertos en varios temas candentes y que esto da como resultado acciones que pueden parecer contraintuitivas, pero que al final se demuestran que funcionan, como la voluntad de la red social de no retirar ni vídeos ni amenazas de suicidio, que Bricket asegura que ha ayudado a salvar vidas.
Según la responsable de la compañía, la política de no retirar vídeos de suicidio ayuda a salvar vidas