Milenio

Millones de usuarios consultan su cuenta de Facebook todos los días

-

“Este mecanismo aprende de cada publicació­n removida o reportada”

ver un corazón humano; nuestro trabajo es detectar ese contenido para que nadie más lo vea”.

Para Fabio la violencia más dura es la que cuesta detectar de manera automática: “Hay violencia extrema cuando una persona le corta la cabeza a otra; sin embargo, hay otro tipo de violencia que perdura y que no la tenemos muy presente porque no es gráfica: la violencia de género, el racismo o el discurso de odio. Eso te puede afectar más” .

A Natalia, otra mexicana que trabaja en CCC, tampoco le afecta tanto el contenido violento. Cuando ve videos o fotografía­s de ese tipo lo asume como parte del trabajo, sin hacerlo personal. “Más que un decapitado, a mí me afecta más algo escatológi­co”.

En este grupo de trabajo también hay psicólogos que velan por la salud mental de los revisores de Facebook. Silvestre es uno de ellos y asegura que su trabajo es más proactivo que reactivo.

“Hay veces que debemos identifica­r lo que un trabajador enfrenta fuera para saber qué puede estar afectando dentro. Una vez que estableces esa conexión es más fácil trabajar con la persona, porque ya tenemos un foco emocional que atender; tenemos esa atención uno a uno para ayudarles a contener el problema.

“Aquí el estrés está más ligado a los horarios que al contenido que ven, pues los revisores no siempre tienen la misma jornada ni los mismos días de descanso. Son tres horarios: mañana, tarde y noche, y tenemos más personas estresadas por su adaptación a los horarios que a los

El revisor que nunca duerme

Todo lo que hacen los revisores es posible gracias a un que es el que realmente revisa y decide automática­mente el contenido que se queda en Facebook. Solo cuando hay dudas, un humano entra en acción.

Y es que, ante miles de millones de publicacio­nes que se realizan todos los días en la red social, es imposible que el trabajo recaiga solo en humanos. El llamado SRT aprende todo el tiempo y lo hace de cada publicació­n que es removida o reportada. Además,

la razón del posible error en sus decisiones.

“Explicarlo parece simple, pero es complejo, aunque esto ejemplific­a bien cómo funciona”, asegura Simon Cross antes de describir cómo opera el

“El SRT identifica la publicació­n con base en decisiones previas y todo lo que le hemos enseñado que no debe estar en Facebook. A partir de eso remueve o deja un contenido. Si un usuario lo reporta, habrá una revisión humana; entonces se decide si el contenido se mantiene o se remueve. El SRT de esa decisión humana y así vamos perfeccion­ando cada día la operación”, explica Cross.

“Nuestro equipo trabaja 24 horas, siete días de la semana, en 50 idiomas. Si nuestro margen de error es de 0.5 por ciento significa que dejamos pasar mucho contenido dañino. Hacemos nuestro mejor esfuerzo y vamos a mejorar junto con la tecnología, aunque sabemos que no podremos impedir que todo ese contenido llegue a la red”, acepta Cross.

 ??  ??
 ??  ??

Newspapers in Spanish

Newspapers from Mexico