Radicalização pelas redes é desafio para gigantes ‘tec’
Facebook reconhece problema e troca monitoramento via algoritmos por pessoas que vigiam contas suspeitas
O combate ao terrorismo nunca dependeu tanto da vigilância atenta das redes sociais e das “fake news” que circulam por elas, mas táticas usadas até agora têm o impacto de um elefante numa loja de cristais – chamam demaisaatençãoecausammais problemas do que resolvem.
Em Austin, a capital do Texas que foi alvo de ataques com bombas nas últimas semanas, um especialista em tecnologia que já trabalhou para o governo m ações antiterrorismo fez essa comparação numa conversa sobre como o “big tech” deve dialogar mais com a polícia e com serviços de inteligência.
Mike Hermus, falando no South by Southwest, megafestival de cinema, música e tecnologia, disse que a situação só melhorou após o escândalo da interferência russa no país.
O episódio, na opinião dele, fez o governo fechar o cerco contra o Vale do Silício, cobrando atitudes mais firmes para evitar a proliferação de mentiras e o perigo de que terroristas entrem nessas plataformas para radicalizar novos extremistas.
“Nossas fronteiras são mais seguras do que pensam, então o problema não é que terroristas venham para cá”, afirmou Hermus. “Tem a ver com aqueles que se radicalizam porque consomem a propaganda de facções terroristas em território americano. O desafio é ficar sempre atento a essa autorradicalização.”
Os últimos atentados em Nova York, por exemplo, têm esse dado em comum. Tanto Sayfullo Saipov, que atropelou e matou oito pessoas numa ciclovia de Manhattan, quanto Akayed Ullah, que detonou uma bomba no metrô, aderiram ao terrorismo já vivendo nos Estados Unidos.
Brian Fishman, chefe da área antiterrorismo do Facebook, reconheceu que a rede social agora no centro do escândalo do vazamento de dados dos usuários virou um canal para a radicalização e disse que o monitoramento antes feito só com algoritmos agora conta com pessoas vigiando contas suspeitas.
“Nenhum terrorista pode usar nossa plataforma. Mesmo que ele esteja no Facebook postando fotos de gatinhos e cachorros, ele não pode estar lá”, disse Fishman. “Temos mais de 180 pessoas na empresa hoje trabalhando para ver quem está usando a rede para fins terroristas e então apagamos as contas.”
Mas o problema, ele diz, é que cada vez que uma conta é removida outra surge no lugar, sobrecarregando o time.
Enquanto empresas como Facebook, Google e Twitter engrossam seus times de análise de conteúdo suspeito, a indústria também se esforça para desenvolver áreas de inteligência artificial para combater discursos de ódio e “fake news”.
Num momento em que o “big tech” está sendo cada vez mais cobrado por agir como empresas de comunicação, assumindo responsabilidade pelo que publicam m suas plataformas, o primeiro passo é tentar erradicar as notícias falsas.
“Tentamos criar algoritmos para identificar as ‘fake news’, mas o problema é que existe sarcasmo, ironia e opinião”, diz Armineh Nourbaksh, da Thomson Reuters. “Então é cada vez mais difícil para uma máquina entender o que é verdade e o que é mentira.”
Nourbaksh contou como desenvolveu uma ferramenta capaz de checar dados de mensagens no Twitter para determinar se algo que está sendo alvo de muitos comentários na rede é mesmo uma notícia, mas diz que o mecanismo ainda esbarra na inabilidade de máquinas interpretarem textos.
Outro desafio é enquadrar essa análise do discurso na lei americana. O problema para Amie Stepanovich, do grupo de cibersegurança Access Now, é que mentir não é considerado um crime.
“Não existe uma lei capaz de definir o que é ‘fake news’, isso sempre vai esbarrar na liberdade de expressão”, ela diz. “Quando nos perguntamos se a inteligência artificial pode identificar ‘fake news’, a resposta é não. A questão que enfrentamos agora é se mentir é contra a lei ou não.”