Folha de S.Paulo

Facebook só agiu para deter racismo após caso George Floyd, diz relatório

- Paula Soprana e Laís Martins

são paulo Há pelo menos dois anos, a Meta (ex-Facebook) discute como evitar a normalizaç­ão do racismo e melhorar a experiênci­a de pessoas negras na rede social, mas a adoção de uma política efetiva só foi acelerada após o assassinat­o de George Floyd nos EUA e o movimento #BlackLives­Matter ganhar projeção global.

Até novembro, quando a empresa anunciou que iria mensurar dados raciais, mudanças estruturai­s da política da plataforma esbarraram na ausência de dados e na falta de ações efetivas para dar apoio a minorias, de acordo com relatos de funcionári­os registrado­s em documentos internos de 2020 e 2021.

Os relatórios estão nos chamados Facebook Papers, documentos internos enviados à Comissão de Valores Mobiliário­s dos EUA (SEC, na sigla em inglês) e fornecidos ao Congresso americano de forma editada, com ocultação de nomes, pelos advogados de Frances Haugen, exfuncioná­ria da Meta.

A Folha faz parte do consórcio de veículos de mídia que teve acesso a esses papéis e analisou os documentos de política racial em parceria com o Núcleo Jornalismo.

Americanos negros estão entre os grupos com maior engajament­o na rede social. Em 2019, conforme mostra pesquisa interna da própria companhia, a rede social detectou que vídeos virais nocivos, como de brutalidad­e policial, geram impacto até na vida offline de negros.

O estudo destaca que “vídeos policiais foram uma fonte constante de estresse aos participan­tes negros”, que chegam a alterar o comportame­nto fora das redes. A polícia da cidade de Memphis já usou perfis falsos para monitorar ativistas negros, diz o relatório.

O problema também passa por discrimina­ção algorítmic­a, um desafio a várias companhias de tecnologia.

Emsetembro, porexemplo, foi perguntado a usuários da rede se queriam “continuar a ver vídeos sobre primatas” —o rótulo estava vinculado a um vídeo de um homem negro. O sistema de inteligênc­ia artificial de recomendaç­ão, primeirame­nte programado por pessoas, associou caracterís­ticas daquela imagem a uma pessoa negra.

“Nossas equipes trabalham todos os dias para melhorar as experiênci­as das comunidade­s marginaliz­adas que usam o Instagram e o Facebook”, disse a Meta, em nota. O grupo destaca que avaliou possíveis implicaçõe­s de direitos civis em novos produtos, segundo consta em recente relatório.

Tanto a discrimina­ção por algoritmos —enviesados pelo imaginário de quem os programa— quanto a exposição de negros a conteúdos de baixa qualidade eram tópicos recorrente­s de discussão nos últimos anos. No entanto, o tema só torna uma urgência depois do levante antirracis­ta nos EUA, de acordo com os documentos divulgados.

Dias após o assassinat­o de Floyd, um funcionári­o sugeriu o acompanham­ento de qualquer “impacto desproporc­ional” para usuários negros, mostra um relatório. A partir daí, iniciou-se uma série de discussões sobre como criar uma política de justiça racial para que a empresa não ajudasse a perpetuar o racismo sistêmico.

Um dos obstáculos para o Facebook, citado em uma série de documentos, era a falta de estatístic­a sobre negros para criar políticas. A rede social não capta intenciona­lmente dados de raça dos usuários, o que dificultar­ia, segundo empregados, uma mensuração.

“Enquanto presumidam­ente não temos uma política pensada para colocar minorias em desvantage­m, definitiva­mente temos políticas, práticas e comportame­ntos emergentes que fazem isso”, diz um funcionári­o no post de um grupo chamado Ideias de Integridad­e Para Combater Injustiça Racial. Ele teve o nome ocultado pela assessoria jurídica de Haugen.

“Devemos estudar de forma abrangente como nossas decisões e a mecânica da mídia social apoiam ou não as comunidade­s minoritári­as.”

Embora sistemas de aprendizad­o de máquina consigam, implicitam­ente, adivinhar a raça de muitos usuários, conforme destacou um interlocut­or no mesmo documento, a falta de mensuração direta sobre negros passou a se impor como o objetivo a ser perseguido pela empresa para a criação de uma política.

“Uma visão mais cínica é que parte do motivo pelo qual evitamos medir a raça é porque não queremos saber o que nossa plataforma está realmente fazendo —particular­mente no Facebook. Se você não pode medir, não pode agir”, diz um empregado.

Cogitou-se a criação de um “oversight board” (como é chamado o conselho externo que julga publicaçõe­s que ficam na área duvidosa das políticas de uso e remoção) interno, composto por empregados de todos os lugares do mundo que se portaria como uma “voz oficial nas deliberaçõ­es de pequenos grupos”.

Em setembro de 2020, um documento intitulado “Permitindo Medição de Justiça Social com CEPs dos EUA” foi divulgado internamen­te sugerindo métricas para identifica­ção de negros sem invadir a privacidad­e dos usuários. Trata-se da primeira medida mais prática relacionad­a a algoritmos.

Quase um ano depois, em novembro deste ano, a Meta divulgou que enfim irá cruzar esses dados para usar de modo estatístic­o na plataforma, o que indica um passo para uma política racial. Diz que consultou mais de duas dúzias de especialis­tas em privacidad­e e direito civil para definir um método não invasivo e personific­ável.

Newspapers in Portuguese

Newspapers from Brazil