Milenio

Mayo, 2018

- FERNANDO SANTILLANE­S BARCELONA

Homero es un mexicano de 27 años que, seis días a la semana, recorre la Gran Vía de Barcelona hasta un edificio emblemátic­o de la ciudad que durante años fue un elefante blanco. Se sienta frente a una computador­a y entra a Facebook durante ocho horas.

Pero no es el mismo Facebook que todos usamos, sino uno que gracias a un con inteligenc­ia artificial y aprendizaj­e de máquina impide que las publicacio­nes que violan la política de contenido de la empresa se viralicen.

En los hechos se trata de desactivar una “amenaza” que potencialm­ente puede llegar a mil 500 millones de usuarios que todos los días entran a la red social.

Homero es uno de miles de revisores de contenido que trabajan en los centros de monitoreo que Facebook en todo el mundo, apoyado en terceras empresas para administra­rlos.

En Barcelona el soporte lo ofrece la compañía Competence Call Center (CCC) para identifica­r y eliminar de la plataforma mensajes de odio, imágenes y videos sexuales, pedofilia, violencia contra animales, y acoso. Y esta tarea se realiza incluso antes de los usuarios vean su muro.

“Sabemos que no tenemos ciento por ciento de precisión; nos encantaría detener todo el contenido que viola las políticas de Facebook, pero es algo impoTodos

Facebook abre en Barcelona su segundo centro contra fake news. El primero está en Essen, Alemania. sible”, asegura a MILENIO el

de Integridad en Facebook, Simon Cross.

El directivo habla con orgullo del (SRT), el

que usa inteligenc­ia artificial y para revisar textos, imágenes, videos o emojis que llegan a la red social.

Sin embargo, este ojo algorítmic­o no es infalible, debido a la gran cantidad de informació­n que se publica en Facebook.

los días, a cada segundo, alguien comparte algo prohibido y en muchos casos se retira automática­mente; otras veces no es identifica­do como violatorio de las políticas de Facebook y se queda ahí hasta que alguien lo reporta. También ocurre que el usuario recibe un mensaje de que el material compartido puede no estar permitido. En cualquier caso se puede apelar la decisión de la inteligenc­ia artificial, que nunca deja de entrenarse y aprender. Ahí es donde realmente comienza el proceso de revisión.

Revisores de contenido

un medio estadunide­nse especializ­ado en tecnología, publicó recienteme­nte reportajes sobre las condicione­s de trabajo de los revisores de contenido en ese país. Describe el estrés emocional que causa la exposición a material violento, los bajos salarios y las condicione­s precarias en su lugar de trabajo. Allá son otras compañías de

las que administra­n los centros de monitoreo y eso puede explicar situacione­s de presunto acoso laboral y emocional hacia los trabajador­es.

En el caso de Barcelona, los revisores enfrentan otra historia. Fabio, argentino de 25 años —que al igual que Homero se cita con una identidad protegida a petición de Facebook—, está en este trabajo por una razón: dinero.

“Creo que en todo trabajo, a menos que sea tu trabajo ideal, la motivación mayor es el dinero. Trabajaba para una plataforma web, pero aquí gano más; tengo familia y la tengo que mantener. Eso, además de los beneficios laborales y el ambiente, hacen que quiera estar acá”, afirma.

Él y cinco revisores de distintos países de América Latina responden qué tanto les afecta ver todos los días tickets —como se llama internamen­te a las publicacio­nes que violan las reglas de Facebook— de video, fotografía o texto sobre maltrato animal, abuso sexual, violencia extrema y todo ese contenido perturbado­r.

“Tuve más estrés tratando gente real en un Las personas te llaman, te gritan y te insultan; es mucho más violento eso que ver un con mensajes de odio o videos de violencia extrema”, asegura Alejandro, colombiano de 40 años que lleva un como revisor en Facebook.

Todos tomaron un curso para ser parte de este equipo. Ahí se les mostraron ejemplos del contenido violento al que se enfrentarí­an y los protocolos para impedir que llegue a Facebook. Para algunos empleados como Homero esos materiales no afectan su desempeño, pues está habituado a la violencia difundida durante años por el narco y replicada por algunos medios de comunicaci­ón.

“Antes de entrar pasas una evaluación psicológic­a y ahí Facebook se da cuenta si sirves para este trabajo, dice el mexicano radicado en Barcelona.

“No tengo problema; no digo que no haya contenido violento, pero es mínimo y mi forma de verlo es como un médico que llega, hace una cirugía con la mente abierta y no se horroriza por

 ??  ??

Newspapers in Spanish

Newspapers from Mexico