8,5 SEGUNDOS PARA EXCLUIR UM SUÍCIDIO
Brasileiro que trabalhou como ‘revisor de denúncias sobre violência e ódio’ do Facebook relata as angústias para selecionar o que publicar
DA BBC BRASIL
Grupo de amigos incendeia cachorro de rua com isqueiro. Adolescentes são forçados a fazer sexo oral mútuo em acerto de contas do tráfico. Menina com lâmina de barbear anuncia suicídio em vídeo ao vivo. Recém-nascido é espancado por parente no berço. Vaca é despedaçada viva em moedor gigante de madeira.
Tudo o que há de pior no Facebook durante oito horas diárias, de segunda a sextafeira, em troca de um salário mínimo. O brasileiro Sergio, que pede anonimato, viveu essa rotina por um ano, até abandonar o emprego de revisor de denúncias sobre violência e ódio em português na rede social —e se tornar uma pessoa mais “fria e insensível” na vida off-line.
“Eu via vídeos ao vivo para checar se alguém se mataria”, diz ele, cuja função era decidir o mais rápido possível se publicações agressivas eram toleráveis ou passavam dos limites estabelecidos pelo Facebook.
Em seu escritório, a meta para cada revisor era avaliar, por dia, 3.500 fotos, vídeos e textos denunciados. Mais de sete por minuto, ou um a cada 8,5 segundos.
“Impossível não ter erro humano nesse ritmo”, diz Sergio, que hoje trabalha como freelancer e decidiu abandonar qualquer interação na rede social depois de conhecê-la “por dentro”.
O Facebook disse que não comentaria os relatos do exfuncionário.
Na semana em que Mark Zuckerberg anunciou a contratação de 10 mil funcionários diretos e indiretos para funções como a desempenhada por Sergio, a rotina do brasileiro em uma espécie de “call center” digital ilustra o desafio enfrentado pelo Facebook para conter milhões de demonstrações explícitas de violência com consequências cada vez mais dramáticas —do incentivo a suicídios infantis a ameaças à segurança nacional do país mais rico do mundo.
No EUA, na semana passada, o Facebook admitiu que grupos russos criaram perfis falsos ligados a movimentos sociais como o Black Lives Matter para divulgar memes que incitavam o ódio de racistas nas eleições de 2016.
Para além da frieza dos robôs e relatórios, a experiência do brasileiro traz luz ao trabalho daqueles que ocupam funções de base em empresas terceirizadas pelo império de Zuckerberg —com re- lações de trabalho bem diferentes do clichê de escritórios descolados, do Vale do Silício, com montanhas de M&Ms e cachorros-quentes à disposição das equipes.
Num prédio com longas bancadas de computadores distribuídas em vários andares, Sergio e 500 colegas do mundo inteiro passavam dias avaliando denúncias sobre pedofilia, nudez, necrofilia, suicídios, assassinatos, assédios, ameaças, armas, drogas e violência animal publicadas em 15 idiomas. BANHEIRO Segundo o ex-funcionário, nesses centros de revisão da rede social mais usada do planeta, celulares são proibidos, pausas para comida ou banheiro são monitoradas e contratos de trabalho preveem multas e processos judiciais contra vazamento de informações. “Era como um grande call center, sem os telefones. A gente estava ali para atender ao cliente: no caso, o Facebook e seus usuários.”
Em seu computador, Sergio tinha acesso a uma timeline “alternativa” que exibia apenas as postagens alvo de denúncias de usuários, de forma aleatória, junto a um menu sobre possíveis violações.
Os moderadores só visualizam o nome do autor das publicações e não têm acesso a seus perfis completos. Sua missão é apagar, ignorar ou encaminhar a publicação para a avaliação superior —o que ocorre especialmente em casos de suicídio ou pedofilia, que, por sua vez, são encaminhados a autoridades.
As decisões, pautadas por políticas internas da rede social, servem para “educar” os algoritmos, que, com o tempo, repetem as respostas automaticamente, via recursos avançados de identificação de rostos ou frases ofensivas.
“Quanto mais ensinávamos o algoritmo, menos nos tornávamos necessários. Nosso trabalho era tornar o nosso trabalho obsoleto”, diz.
O brasileiro, que também pede sigilo sobre a cidade onde trabalhava, conta que o Facebook escolhe locais com alto fluxo de estrangeiros, onde é fácil encontrar pessoas fluentes em diferentes idiomas.
Os revisores de conteúdo são normalmente jovens profissionais que vivem no exterior ou que não encontram trabalho em suas áreas. A rotatividade é alta, e a maioria não completa um ano no posto. METAS Para conseguirem decidir em menos de dez segundos se uma publicação merece ou não ser apagada, os funcionários decoram regras e recebem memorandos digitais sobre mudanças em listas de grupos extremistas ou atualizações em políticas, como a que permitiu fotos e vídeos de mães amamentando e imagens de mulheres que passaram por mastectomia.
A pressão para cumprir as metas aparecia, segundo Sergio, em reuniões recorrentes com supervisores. “Tinha relatórios periódicos sobre metas de moderação. Os chefes às vezes pareciam ‘cheerleaders’ e tentavam nos motivar dizendo que havíamos ‘salvado X pessoas de suicídios ou agressões no mês’.”
“Mas também diziam sempre que a continuidade dos nossos empregos dependia do batimento das metas diárias e citavam outros lugares com resultados melhores que o nosso. A gente nunca sabia quanto tempo o escritório iria durar”, diz Sergio.
Há uma semana, ao anunciar um aumento de 47% no faturamento anual do Facebook, que ultrapassou pela primeira vez na história a marca de US$ 10 bilhões em um trimestre, Mark Zuckerberg prometeu investir em “pessoas e tecnologia para identificar mau comportamento e remover notícias falsas, discurso de ódio, bullying e outros conteúdos problemáticos” da rede.
Em maio, a chefe de Política Global do Facebook, Monika Bickert, comentou o trabalho de revisores como Sergio num texto sobre os desafios da moderação de conteúdos.
“Eles têm um obstáculo: entender o contexto. É difícil julgar a intenção por trás de uma postagem ou o risco implícito em outra. Alguém publica um vídeo violento de um ataque terrorista. Isso inspirará as pessoas a imitar a violência ou a falar contra? Alguém escreve uma piada sobre suicídio. É um mero comentário ou um grito de ajuda?” APERTAR O BOTÃO Sergio confirma as dificuldades, mas diz que não conseguia discutir decisões com superiores. “Não havia espaço para pensamento crítico, o trabalho tinha de ser automático e acelerado. Era seguir o manual, apertar botão e não fazer muita pergunta.”
Os dados mais recentes do Facebook apontam que a rede exclui 300 mil publicações por mês. Entre os brasileiros, segundo o ex-revisor, boa parte dos conteúdos denunciados envolve casos de nudez.
“Ver conteúdos fortes todos os dias te faz perder a sensibilidade para certas coisas. Especialmente em relação à nudez —eram tantas selfies de gente nua, closes em pênis, vaginas e mamilos, que a pornografia perdeu a graça.”
Como não há consenso nas leis de diferentes países sobre conteúdos ofensivos ou discurso de ódio on-line (frases que podem levar à prisão em locais como a Alemanha podem ser protegidas como liberdade de expressão pela Constituição dos EUA), o Facebook criou suas próprias regras, considerando raça e etnia, religião, gênero e orientação sexual como “categorias protegidas”.
Os revisores são orientados a apagar “qualquer ataque direto a pessoas” baseado com base nessas categorias.
Além da pressa, códigos sociais usados por diferentes grupos podiam dificultar o trabalho dos moderadores.
“Muitos gays chamam uns aos outros de ‘veado’, por exemplo. Veado [ou faggot, em inglês] era uma palavra proibida, a não ser que fosse uma autorrefêrencia. E acontecia sempre de um gay usar a palavra veado e ter a conta bloqueada ou desativada por ofensa”, diz Sergio. “Muitas vezes, na moderação, era a gente quem decidia se a pessoa era gay ou não na hora de analisar a denúncia.”
O perfil pessoal de Sergio no Facebook permanece abandonado desde a época da demissão.
“Para não ficar preso nas bolhas, nas câmaras de eco onde as pessoas só ouvem as próprias vozes e as de quem concorda com elas, eu decidi me isolar”, conta o brasileiro. “Eu não queria me tornar uma daquelas pessoas que apareciam nas denúncias.”
“
Ver conteúdos fortes todos os dias te faz perder a sensibilidade. Eram tantas selfies de gente nua, closes em pênis, que a pornografia perdeu a graça Muitas vezes, na moderação, era a gente quem decidia se a pessoa era gay ou não na hora de analisar a denúncia