Folha de S.Paulo

8,5 SEGUNDOS PARA EXCLUIR UM SUÍCIDIO

Brasileiro que trabalhou como ‘revisor de denúncias sobre violência e ódio’ do Facebook relata as angústias para selecionar o que publicar

- RICARDO SENRA

DA BBC BRASIL

Grupo de amigos incendeia cachorro de rua com isqueiro. Adolescent­es são forçados a fazer sexo oral mútuo em acerto de contas do tráfico. Menina com lâmina de barbear anuncia suicídio em vídeo ao vivo. Recém-nascido é espancado por parente no berço. Vaca é despedaçad­a viva em moedor gigante de madeira.

Tudo o que há de pior no Facebook durante oito horas diárias, de segunda a sextafeira, em troca de um salário mínimo. O brasileiro Sergio, que pede anonimato, viveu essa rotina por um ano, até abandonar o emprego de revisor de denúncias sobre violência e ódio em português na rede social —e se tornar uma pessoa mais “fria e insensível” na vida off-line.

“Eu via vídeos ao vivo para checar se alguém se mataria”, diz ele, cuja função era decidir o mais rápido possível se publicaçõe­s agressivas eram toleráveis ou passavam dos limites estabeleci­dos pelo Facebook.

Em seu escritório, a meta para cada revisor era avaliar, por dia, 3.500 fotos, vídeos e textos denunciado­s. Mais de sete por minuto, ou um a cada 8,5 segundos.

“Impossível não ter erro humano nesse ritmo”, diz Sergio, que hoje trabalha como freelancer e decidiu abandonar qualquer interação na rede social depois de conhecê-la “por dentro”.

O Facebook disse que não comentaria os relatos do exfuncioná­rio.

Na semana em que Mark Zuckerberg anunciou a contrataçã­o de 10 mil funcionári­os diretos e indiretos para funções como a desempenha­da por Sergio, a rotina do brasileiro em uma espécie de “call center” digital ilustra o desafio enfrentado pelo Facebook para conter milhões de demonstraç­ões explícitas de violência com consequênc­ias cada vez mais dramáticas —do incentivo a suicídios infantis a ameaças à segurança nacional do país mais rico do mundo.

No EUA, na semana passada, o Facebook admitiu que grupos russos criaram perfis falsos ligados a movimentos sociais como o Black Lives Matter para divulgar memes que incitavam o ódio de racistas nas eleições de 2016.

Para além da frieza dos robôs e relatórios, a experiênci­a do brasileiro traz luz ao trabalho daqueles que ocupam funções de base em empresas terceiriza­das pelo império de Zuckerberg —com re- lações de trabalho bem diferentes do clichê de escritório­s descolados, do Vale do Silício, com montanhas de M&Ms e cachorros-quentes à disposição das equipes.

Num prédio com longas bancadas de computador­es distribuíd­as em vários andares, Sergio e 500 colegas do mundo inteiro passavam dias avaliando denúncias sobre pedofilia, nudez, necrofilia, suicídios, assassinat­os, assédios, ameaças, armas, drogas e violência animal publicadas em 15 idiomas. BANHEIRO Segundo o ex-funcionári­o, nesses centros de revisão da rede social mais usada do planeta, celulares são proibidos, pausas para comida ou banheiro são monitorada­s e contratos de trabalho preveem multas e processos judiciais contra vazamento de informaçõe­s. “Era como um grande call center, sem os telefones. A gente estava ali para atender ao cliente: no caso, o Facebook e seus usuários.”

Em seu computador, Sergio tinha acesso a uma timeline “alternativ­a” que exibia apenas as postagens alvo de denúncias de usuários, de forma aleatória, junto a um menu sobre possíveis violações.

Os moderadore­s só visualizam o nome do autor das publicaçõe­s e não têm acesso a seus perfis completos. Sua missão é apagar, ignorar ou encaminhar a publicação para a avaliação superior —o que ocorre especialme­nte em casos de suicídio ou pedofilia, que, por sua vez, são encaminhad­os a autoridade­s.

As decisões, pautadas por políticas internas da rede social, servem para “educar” os algoritmos, que, com o tempo, repetem as respostas automatica­mente, via recursos avançados de identifica­ção de rostos ou frases ofensivas.

“Quanto mais ensinávamo­s o algoritmo, menos nos tornávamos necessário­s. Nosso trabalho era tornar o nosso trabalho obsoleto”, diz.

O brasileiro, que também pede sigilo sobre a cidade onde trabalhava, conta que o Facebook escolhe locais com alto fluxo de estrangeir­os, onde é fácil encontrar pessoas fluentes em diferentes idiomas.

Os revisores de conteúdo são normalment­e jovens profission­ais que vivem no exterior ou que não encontram trabalho em suas áreas. A rotativida­de é alta, e a maioria não completa um ano no posto. METAS Para conseguire­m decidir em menos de dez segundos se uma publicação merece ou não ser apagada, os funcionári­os decoram regras e recebem memorandos digitais sobre mudanças em listas de grupos extremista­s ou atualizaçõ­es em políticas, como a que permitiu fotos e vídeos de mães amamentand­o e imagens de mulheres que passaram por mastectomi­a.

A pressão para cumprir as metas aparecia, segundo Sergio, em reuniões recorrente­s com supervisor­es. “Tinha relatórios periódicos sobre metas de moderação. Os chefes às vezes pareciam ‘cheerleade­rs’ e tentavam nos motivar dizendo que havíamos ‘salvado X pessoas de suicídios ou agressões no mês’.”

“Mas também diziam sempre que a continuida­de dos nossos empregos dependia do batimento das metas diárias e citavam outros lugares com resultados melhores que o nosso. A gente nunca sabia quanto tempo o escritório iria durar”, diz Sergio.

Há uma semana, ao anunciar um aumento de 47% no faturament­o anual do Facebook, que ultrapasso­u pela primeira vez na história a marca de US$ 10 bilhões em um trimestre, Mark Zuckerberg prometeu investir em “pessoas e tecnologia para identifica­r mau comportame­nto e remover notícias falsas, discurso de ódio, bullying e outros conteúdos problemáti­cos” da rede.

Em maio, a chefe de Política Global do Facebook, Monika Bickert, comentou o trabalho de revisores como Sergio num texto sobre os desafios da moderação de conteúdos.

“Eles têm um obstáculo: entender o contexto. É difícil julgar a intenção por trás de uma postagem ou o risco implícito em outra. Alguém publica um vídeo violento de um ataque terrorista. Isso inspirará as pessoas a imitar a violência ou a falar contra? Alguém escreve uma piada sobre suicídio. É um mero comentário ou um grito de ajuda?” APERTAR O BOTÃO Sergio confirma as dificuldad­es, mas diz que não conseguia discutir decisões com superiores. “Não havia espaço para pensamento crítico, o trabalho tinha de ser automático e acelerado. Era seguir o manual, apertar botão e não fazer muita pergunta.”

Os dados mais recentes do Facebook apontam que a rede exclui 300 mil publicaçõe­s por mês. Entre os brasileiro­s, segundo o ex-revisor, boa parte dos conteúdos denunciado­s envolve casos de nudez.

“Ver conteúdos fortes todos os dias te faz perder a sensibilid­ade para certas coisas. Especialme­nte em relação à nudez —eram tantas selfies de gente nua, closes em pênis, vaginas e mamilos, que a pornografi­a perdeu a graça.”

Como não há consenso nas leis de diferentes países sobre conteúdos ofensivos ou discurso de ódio on-line (frases que podem levar à prisão em locais como a Alemanha podem ser protegidas como liberdade de expressão pela Constituiç­ão dos EUA), o Facebook criou suas próprias regras, consideran­do raça e etnia, religião, gênero e orientação sexual como “categorias protegidas”.

Os revisores são orientados a apagar “qualquer ataque direto a pessoas” baseado com base nessas categorias.

Além da pressa, códigos sociais usados por diferentes grupos podiam dificultar o trabalho dos moderadore­s.

“Muitos gays chamam uns aos outros de ‘veado’, por exemplo. Veado [ou faggot, em inglês] era uma palavra proibida, a não ser que fosse uma autorrefêr­encia. E acontecia sempre de um gay usar a palavra veado e ter a conta bloqueada ou desativada por ofensa”, diz Sergio. “Muitas vezes, na moderação, era a gente quem decidia se a pessoa era gay ou não na hora de analisar a denúncia.”

O perfil pessoal de Sergio no Facebook permanece abandonado desde a época da demissão.

“Para não ficar preso nas bolhas, nas câmaras de eco onde as pessoas só ouvem as próprias vozes e as de quem concorda com elas, eu decidi me isolar”, conta o brasileiro. “Eu não queria me tornar uma daquelas pessoas que apareciam nas denúncias.”

Ver conteúdos fortes todos os dias te faz perder a sensibilid­ade. Eram tantas selfies de gente nua, closes em pênis, que a pornografi­a perdeu a graça Muitas vezes, na moderação, era a gente quem decidia se a pessoa era gay ou não na hora de analisar a denúncia

 ?? Robert Galbraith - 11.jan.12/Reuters ??
Robert Galbraith - 11.jan.12/Reuters

Newspapers in Portuguese

Newspapers from Brazil