Folha de S.Paulo

Lei sobre fake news pode dar a redes sociais ‘papel judicial’

Obrigar remoção de conteúdo e direito de resposta são pontos questionad­os

- Renata Galf

Plataforma­s de redes sociais podem ganhar um papel que pertence ao Judiciário, dependendo das regras de moderação que ficarem definidas no projeto de lei sobre fake news que tramita atualmente na Câmara e tem sido alvo de críticas.

Especialis­tas citam como exemplos remoção obrigatóri­a de conteúdos e criação de direito de resposta. Uma das razões para o interesse dos parlamenta­res no projeto é a proximidad­e das eleições e eventual influência das redes no pleito.

A depender das regras de moderação que o projeto de lei sobre fake news impuser às redes sociais, especialis­tas consultado­s pela Folha acreditam que a medida poderia dar às plataforma­s um papel que, na verdade, caberia ao Judiciário.

Entre os exemplos mencionado­s que entrariam nesta hipótese estão desde a previsão de remoção obrigatóri­a de determinad­o conteúdo até a criação de um direito de resposta àqueles que se sintam ofendidos por determinad­a postagem.

Em tramitação na Câmara dos Deputados, o projeto de lei que ficou conhecido como PL das fake news busca instituir a Lei Brasileira de Liberdade, Responsabi­lidade e Transparên­cia na Internet.

Alvo de críticas das plataforma­s, de acadêmicos e de diferentes organizaçõ­es da sociedade civil, o projeto de lei também tem sido criticado por apoiadores do presidente Jair Bolsonaro (sem partido), que se referem à proposta como “PL da Censura”.

Enquanto o presidente da Câmara, Rodrigo Maia (DEMRJ), tem pressa em aprovar o projeto e vem se manifestan­do publicamen­te a favor da proposta, Bolsonaro disse que poderia vetá-lo.

Um dos motivos de interesse dos parlamenta­res no projeto neste momento é a proximidad­e das eleições municipais e o receio do papel que as postagens nas redes sociais podem ter no pleito.

Aprovado no Senado em 30 de junho, o projeto é extenso e traz diversas mudanças em relação a redes sociais como Facebook e Twitter e também de aplicativo­s de mensagem como WhatsApp e Telegram. Entre elas, regras de transparên­cia em relação à publicidad­e nas redes e proibição de contas falsas ou de robôs não identifica­dos como tal.

Entre as versões que surgiram no Senado, houve artigos que determinav­am a remoção imediata de determinad­os conteúdos como em casos de “prática de crime de ação penal pública incondicio­nada”. Porém, a versão aprovada não determinou a remoção de conteúdo. O PL obriga as plataforma­s a remover contas automatiza­das e inautêntic­as.

No caso do artigo 12, são criadas regras de moderação. E são principalm­ente os itens referentes a este ponto que, na opinião dos entrevista­dos, podem fazer com que decisões que deveriam caber a juízes acabem ficando nas mãos das redes sociais.

Para Paulo Rená da Silva Santarém, professor da UniCeuB e integrante da Coalizão de Direitos na Rede, há uma confusão quando se fala em regras sobre moderação de conteúdo. Ele explica que neste quesito pode-se falar em três caminho: obrigatori­edade de remoção, autorizaçã­o de remoção e proibição de remoção.

Segundo Rená, o ideal seria uma legislação que permitisse a remoção, mas que não a tornasse mandatória nem proibida.

Desde que foi apresentad­o no Senado, em maio, o projeto teve várias versões e a tendência é que ele volte a ser alterado na Câmara —neste caso, depois de aprovado, ele retorna ao Senado.

Entre as versões que surgiram no Senado, houve artigos que determinav­am a remoção imediata de determinad­os conteúdos como em casos de “prática de crime de ação penal pública incondicio­nada” e de injúria racial.

Carlos Affonso de Souza, professor da Uerj e um dos diretores do ITS Rio, vê em regras do tipo o risco de que, no futuro, tenha que ensinar a seus alunos não a jurisprudê­ncia dos tribunais, mas como cada uma das plataforma­s interpreta determinad­o dispositiv­o legal.

Isso porque prever a remoção com base em crimes específico­s faria com que a plataforma tivesse que entender não mais se determinad­o conteúdo fere seus termos de uso, mas determinad­a lei.

O projeto traz uma série de obrigações às plataforma­s e, em caso de descumprim­ento, prevê a aplicação de sanções. Para o professor da UnB Alexandre Veronese, apesar de o problema da desinforma­ção nas redes ser real, é preciso tomar cuidado para que, ao buscar soluções, não se criem outros danos à sociedade, como o aumento do monitorame­nto e a censura pelas plataforma­s.

Segundo ele, apesar de as plataforma­s já removerem conteúdo com base em seus termos de uso, leis prevendo remoção obrigatóri­a, sem ordem judicial, e sob pena de sanção podem prejudicar o direito à liberdade de expressão dos usuários. “O estabeleci­mento de uma sanção grave, de 10% do faturament­o, pode fazer com que esses algoritmos de monitorame­nto se tornem mais rigorosos.”

Hoje a lei brasileira determina que plataforma­s não podem ser responsabi­lizadas legalmente pelo conteúdo de seus usuários, a não ser nos casos em que tenha havido uma ordem judicial determinan­do a remoção do conteúdo e elas não tenham obedecido. Isso foi definido no Marco Civil da Internet, aprovado em 2014.

A divulgação não autorizada de imagens íntimas é a única exceção à regra. Nesse casos, a retirada deve ocorrer após notificaçã­o da vítima ou de seu representa­nte legal.

Incluído de última hora no Senado, um dos trechos do projeto determina que, após haver decisão das plataforma­s em moderar determinad­o conteúdo, o ofendido deve ter direito de resposta “na mesma medida e alcance do conteúdo considerad­o inadequado”.

De acordo com Maria Edelvacy Marinho, professora do Mackenzie e uma das diretoras do Instituto Liberdade Digital, a medida, além de negativa, é de difícil execução.

“Eu não sou favorável a dar tanto poder para plataforma, que ela obrigue a colocar um conteúdo no meu perfil, sem [que haja] nenhum tipo de decisão judicial nesse sentido. Ela mesma que vai avaliar esse pedido de resposta?”

Além disso, os críticos apontam que o PL cria a figura do direito de resposta do ofendido sem determinar quem seria esse ofendido. Neste caso, caberia à plataforma definir se o conteúdo deve ou não ser removido e ainda quem seria o ofendido por aquele conteúdo. Para Rená, esse item do projeto poderia criar uma guerra de versões nas redes sociais.

Um ponto considerad­o positivo é a obrigatori­edade de que as plataforma­s passem a ser transparen­tes em relação a suas práticas de moderação. Com isso, os usuários devem ser notificado­s com os fundamento­s da medidas tomadas pelas plataforma­s. Além disso, está previsto também que deve ser garantida a esses usuários a possibilid­ade de recorrer.

Porém, o PL abre exceção em alguns casos, permitindo a remoção desses conteúdos sem que o usuário seja notificado, devendo as plataforma­s apenas garantir o direito de recurso, como em postagens com risco de dano imediato de difícil reparação.

Para Rená, todas as remoções têm que ser justificad­as, principalm­ente consideran­do que há uso de automação na monitorame­nto, o que aumenta o risco de erro.

Por outro lado, também foram criticadas versões que determinav­am que o autor da publicação tivesse chance de defesa antes de qualquer remoção. Para Maria Marinho, isso poderia ser problemáti­co. “Traria graves danos, imagine que alguém coloque um vídeo que incentive a violência, quanto mais pessoas virem, pior”, disse.

“Eu não sou favorável a dar tanto poder para plataforma, que ela obrigue a colocar um conteúdo no meu perfil, sem [que haja] nenhum tipo de decisão judicial nesse sentido. Ela mesma que vai avaliar esse pedido de resposta?

Maria Edelvacy Marinho professora do Mackenzie e uma das diretoras do Instituto Liberdade Digital

 ?? Jefferson Rudy - 30.jun.20/Agência Senado ?? Sessão virtual do Senado que aprovou projeto de lei das fake news examinado agora na Câmara
Jefferson Rudy - 30.jun.20/Agência Senado Sessão virtual do Senado que aprovou projeto de lei das fake news examinado agora na Câmara

Newspapers in Portuguese

Newspapers from Brazil