Mayo, 2018
Homero es un mexicano de 27 años que, seis días a la semana, recorre la Gran Vía de Barcelona hasta un edificio emblemático de la ciudad que durante años fue un elefante blanco. Se sienta frente a una computadora y entra a Facebook durante ocho horas.
Pero no es el mismo Facebook que todos usamos, sino uno que gracias a un con inteligencia artificial y aprendizaje de máquina impide que las publicaciones que violan la política de contenido de la empresa se viralicen.
En los hechos se trata de desactivar una “amenaza” que potencialmente puede llegar a mil 500 millones de usuarios que todos los días entran a la red social.
Homero es uno de miles de revisores de contenido que trabajan en los centros de monitoreo que Facebook en todo el mundo, apoyado en terceras empresas para administrarlos.
En Barcelona el soporte lo ofrece la compañía Competence Call Center (CCC) para identificar y eliminar de la plataforma mensajes de odio, imágenes y videos sexuales, pedofilia, violencia contra animales, y acoso. Y esta tarea se realiza incluso antes de los usuarios vean su muro.
“Sabemos que no tenemos ciento por ciento de precisión; nos encantaría detener todo el contenido que viola las políticas de Facebook, pero es algo impoTodos
Facebook abre en Barcelona su segundo centro contra fake news. El primero está en Essen, Alemania. sible”, asegura a MILENIO el
de Integridad en Facebook, Simon Cross.
El directivo habla con orgullo del (SRT), el
que usa inteligencia artificial y para revisar textos, imágenes, videos o emojis que llegan a la red social.
Sin embargo, este ojo algorítmico no es infalible, debido a la gran cantidad de información que se publica en Facebook.
los días, a cada segundo, alguien comparte algo prohibido y en muchos casos se retira automáticamente; otras veces no es identificado como violatorio de las políticas de Facebook y se queda ahí hasta que alguien lo reporta. También ocurre que el usuario recibe un mensaje de que el material compartido puede no estar permitido. En cualquier caso se puede apelar la decisión de la inteligencia artificial, que nunca deja de entrenarse y aprender. Ahí es donde realmente comienza el proceso de revisión.
Revisores de contenido
un medio estadunidense especializado en tecnología, publicó recientemente reportajes sobre las condiciones de trabajo de los revisores de contenido en ese país. Describe el estrés emocional que causa la exposición a material violento, los bajos salarios y las condiciones precarias en su lugar de trabajo. Allá son otras compañías de
las que administran los centros de monitoreo y eso puede explicar situaciones de presunto acoso laboral y emocional hacia los trabajadores.
En el caso de Barcelona, los revisores enfrentan otra historia. Fabio, argentino de 25 años —que al igual que Homero se cita con una identidad protegida a petición de Facebook—, está en este trabajo por una razón: dinero.
“Creo que en todo trabajo, a menos que sea tu trabajo ideal, la motivación mayor es el dinero. Trabajaba para una plataforma web, pero aquí gano más; tengo familia y la tengo que mantener. Eso, además de los beneficios laborales y el ambiente, hacen que quiera estar acá”, afirma.
Él y cinco revisores de distintos países de América Latina responden qué tanto les afecta ver todos los días tickets —como se llama internamente a las publicaciones que violan las reglas de Facebook— de video, fotografía o texto sobre maltrato animal, abuso sexual, violencia extrema y todo ese contenido perturbador.
“Tuve más estrés tratando gente real en un Las personas te llaman, te gritan y te insultan; es mucho más violento eso que ver un con mensajes de odio o videos de violencia extrema”, asegura Alejandro, colombiano de 40 años que lleva un como revisor en Facebook.
Todos tomaron un curso para ser parte de este equipo. Ahí se les mostraron ejemplos del contenido violento al que se enfrentarían y los protocolos para impedir que llegue a Facebook. Para algunos empleados como Homero esos materiales no afectan su desempeño, pues está habituado a la violencia difundida durante años por el narco y replicada por algunos medios de comunicación.
“Antes de entrar pasas una evaluación psicológica y ahí Facebook se da cuenta si sirves para este trabajo, dice el mexicano radicado en Barcelona.
“No tengo problema; no digo que no haya contenido violento, pero es mínimo y mi forma de verlo es como un médico que llega, hace una cirugía con la mente abierta y no se horroriza por