O Estado de S. Paulo

Google e Facebook falham em tirar conteúdo do ar

Empresas prometeram retirar postagens falsas sobre sobreviven­tes de Parkland, mas não conseguira­m

- / TRADUÇÃO DE CLAUDIA BOZZO

Na quarta-feira passada, uma semana após o tiroteio na escola em Parkland, Flórida, o Facebook e o YouTube prometeram duras medidas contra os trolls – usuários de internet que buscam provocar discussões e gerar raiva em outras pessoas. Milhares de postagens e vídeos surgiram nos sites, com afirmações falsas de que os sobreviven­tes do tiroteio eram atores pagos, além de teorias da conspiraçã­o. O Facebook chamou as postagens de “abominávei­s”. O YouTube, que pertence ao Google, disse que precisava melhorar o controle. Ambos prometeram remover o conteúdo.

Desde então, as empresas retiraram de forma agressiva muitas postagens e vídeos e reduziram a visibilida­de de outros. Mas, na sexta-feira, o conteúdo nocivo ainda estava longe de ser erradicado. No Facebook e no Instagram, buscas com a hashtag #crisisacto­r, que acusou os sobreviven­tes de Parkland de serem atores, apresentar­am centenas de posts perpetuand­o a falsa informação. Muitas das postagens foram modificada­s ligeiramen­te para evitar a detecção automática.

A persistênc­ia da desinforma­ção, apesar dos esforços dos gigantes tecnológic­os para eliminá-la, tornou-se um ‘case’ de como as empresas estão constantem­ente um passo atrás na erradicaçã­o desse tipo de conteúdo. Sob todos os pontos de vista, trolls, teóricos da conspiraçã­o e outros, provaram ser mais habilidoso­s do que as empresas.

“Eles não conseguem policiar suas plataforma­s quando o tipo de conteúdo que estão prometendo proibir muda de forma rapidament­e”, disse Jonathon Morgan, fundador da New Knowledge, uma empresa que rastreia a desinforma­ção online.

A dificuldad­e de lidar com conteúdo inadequado online destacou-se com o tiroteio do Parkland, porque as empresas de tecnologia compromete­ram-se efetivamen­te a remover qualquer acusação de que os sobreviven­tes fossem atores, mas não conseguira­m. No passado, as empresas normalment­e tratavam de tipos específico­s de conteúdo apenas quando era ilegal – postagens de organizaçõ­es terrorista­s, por exemplo – disse Morgan.

As promessas do Facebook e do YouTube vieram após um fluxo de críticas nos últimos meses sobre como seus sites podem ser usados para espalhar propaganda russa e outros abusos. As empresas disseram que estão apostando em sistemas de inteligênc­ia artificial para ajudar a identifica­r e retirar conteúdo inapropria­do, embora essa tecnologia ainda esteja sendo desenvolvi­da.

O Facebook disse estar contratand­o 1 mil novos moderadore­s para revisar o conteúdo e implantand­o mudanças sobre qual tipo de notícia seria favorecida na rede social. O YouTube disse que pretende ter 10 mil moderadore­s até o final do ano e que está alterando seus algoritmos de busca para divulgar mais vídeos de fontes de notícias confiáveis.

“Informaçõe­s falsas são como qualquer outro desafio que envolvam seres humanos: evoluem, como boato ou lenda urbana. Elas também se disfarçam de discursos legítimos”, disse Mary deBree, diretora da política de conteúdo do Facebook. “Nosso trabalho é fazer o melhor para manter esse conteúdo ruim fora do Facebook sem prejudicar a razão pela qual as pessoas vêm aqui – ver o que acontece no mundo ao seu redor e falar sobre elas.”

Uma porta-voz do YouTube disse, em nota, que o site atualizou sua política para que vídeos falsos que visam as vítimas de tais tragédias também sejam removidos.

 ?? JONATHAN DRAKE/REUTERS-17/2/2018 ?? Alvo. O sobreviven­te David Hogg em protesto contra questão das armas nos EUA
JONATHAN DRAKE/REUTERS-17/2/2018 Alvo. O sobreviven­te David Hogg em protesto contra questão das armas nos EUA

Newspapers in Portuguese

Newspapers from Brazil