“O Facebook é dirigido por mentirosos patológicos e sem moral”
O presidente do equivalente neozelandês da Comissão de Protecção de Dados atacou violentamente o Facebook, por se recusar a mudar as regras que permitem a difusão ao vivo de filmagens, que foi usada pelo terrorista de Christchurch, para transmitir o massa
Permitem
a difusão em directo de suicídios, de violações e de homicídios, continuam a alojar e a publicar o vídeo do ataque à mesquita, permitem aos publicitários dirigir anúncios para “antijudeus” e outros segmentos do mercado do ódio e se recusam a aceitar qualquer responsabilidade por conteúdos que difundam ou mal que causem. (...). “Não se pode confiar no Facebook. São mentirosos patológicos e sem moralidade.”
Foi assim que John Edwards, presidente do equivalente neozelandês da Comissão Nacional de Protecção de Dados, reagiu, em dois twits publicados há poucos dias, à entrevista do CEO do FB, Mark Zuckenberg, ao canal americano ABC. Edwards tinha proposto que a rede social criasse uma décalage entre a emissão e a difusão de vídeos, para permitir moderação (ou seja, o bloqueio da emissão), se necessário. Mas Zuckerberg recusou essa possibilidade, dizendo que isso iria pôr em causa um serviço que serve para comunicar acontecimentos e aniversários e que o problema não é a tecnologia ser “má”, mas as pessoas - uma justificação que faz lembrar a da lobby das armas, que usa o mesmo tipo de argumento: não são as armas que matam, mas as pessoas.
Ora!, na sequência do massacre de Março, a Nova Zelândia decidiu de imediato legislar sobre as armas, proibindo a venda de armas de assalto e semi-automáticas. Porém, impedir que volte a suceder alguém usar o Facebook Live para transmitir, durante 17 minutos, em tempo real, a morte de dezenas de pessoas (50 foram assassinadas em Christchurch) e que tal seja visto e descarregado (foram retirados posteriormente mais de 1,5 milhões de cópias e impedidos outros tantos downloads) por milhares de internautas, antes de ser retirado, é algo que aparentemente não será tão simples de conseguir.
O mais que a Nova Zelândia poderá fazer, sem a colaboração do FB, será copiar a Austrália. Este país, de onde é originário o terrorista de Christchurch, já passou uma lei que exige a retirada de conteúdos de ódio no prazo máximo de uma hora, reservando-se o direito de punir penalmente os responsáveis locais das redes sociais. A propósito, o ministro australiano da Justiça declarou:
“É totalmente irracional que tais conteúdos possam estar disponíveis mais de uma hora, sem que os responsáveis das redes ajam. (...) Esta lei deve prevenir que tal suceda e criminalizá-lo e permitir ao Governo uma possibilidade de resposta, quando uma organização como o Facebook deixa esse tipo de difusão em directo, disponível muito tempo na sua plataforma.”
Edwards, nos twits que publicou e depois apagou, dizendo que tinham suscitado reacções tóxicas, acusou ainda o FB de “permitir genocídios” (referindo a Birmânia e a perseguição dos Rohingyas, que foi incitada em posts no Facebook) e de “facilitar a ingerência estrangeira nas instituições democráticas” (aqui referindo a ingerência russa nas eleições americanas).
E terminou com a hashtag “They DontGiveAZuck”, um trocadilho a partir da expressão “don't give a fuck”, que significa “não querer saber”, e do diminutivo de Zuckerberg. Edwards esteve também na rádio a contestar os argumentos usados por Zuckerberg na entrevista à ABC: “Ele não nos pode dizer, ou não nos quer dizer, quantos suicídios, homicídios, agressões sexuais foram difundidas em directo na sua plataforma.”
Há poucos dias, o jornal New Zeland Herald noticiou que ainda há vídeos do massacre no FB. Apesar de Zuckerberg, na entrevista, ter dito que o FB está a trabalhar com a polícia neozelandesa, a reacção de um porta-voz à revelação do Herald foi de que a plataforma está a trabalhar “24 horas por dia, para retirar novos carregamentos do vídeo, usando uma combinação de tecnologia e de funcionários.”
Edwards, que diz ser óbvio que o Facebook deveria ter criado salvaguardas antes de lançar o Facebook Live em 2015, por se tratar de um serviço de “alto risco”, perguntou à plataforma, no início da passada semana, se tinha feito alguma coisa em relação ao serviço de directos desde 15 de Março - o dia do massacre - que se estivesse em vigor antes teria podido impedir o directo da matança ou assegurar que seria logo apagado ou bloqueado, ou objecto de análise humana. A resposta foi “não”, assinalou Edwards no Twitter.
“Este país, de onde é originário o terrorista de Christchurch, já passou uma lei que exige a retirada de conteúdos de ódio no prazo máximo de uma hora, reservando-se o direito de punir penalmente os responsáveis locais das redes sociais”
“Mas Zuckerberg recusou essa possibilidade, dizendo que isso iria pôr em causa um serviço que serve para comunicar acontecimentos e aniversários e que o problema não é a tecnologia ser “má”, mas as pessoas uma justificação que faz lembrar a da lobby das armas”