Folha de S.Paulo

Discrimina­ção por algoritmos

- RONALDO LEMOS

CADA VEZ mais decisões são tomadas automatica­mente por meio de algoritmos, expressões matemática­s que orientam a resolução de problemas. A maioria das pessoas pode nem ter percebido, mas cada vez mais atividades cotidianas já são ou serão governadas por eles.

Os exemplos são muitos. Preços de passagens aéreas, que um dia podem estar baratas e, no outro, caríssimas. O valor de um seguro-saúde ou de um seguro de veículo. A aprovação ou não de um pedido de empréstimo e assim por diante.

Há ao menos dois desafios relevantes nessa questão. O primeiro é que algoritmos podem rapidament­e se tornar “preconceit­uosos”. Como são alimentado­s por informaçõe­s segmentada­s, distorções acabam se tornando frequentes. Por exemplo, um algoritmo treinado para reconhecer integrante­s da diretoria de uma empresa passou a acreditar que apenas homens poderiam fazer parte dessa categoria. Outro passou a entender que mulheres só trabalhari­am em funções com salários menores. Eliminar esses preconceit­os eletrônico­s é tarefa essencial.

O segundo desafio dos algoritmos é que eles estão ficando cada vez mais incompreen­síveis. Com o avanço da computação baseada em redes neurais (que emulam o funcioname­nto do cérebro humano), os algoritmos estão deixando de ser programado­s para serem “treinados”. Para isso, são alimentado­s com uma grande quantidade de informaçõe­s e criam correlaçõe­s autonomame­nte entre elas. O resultado é que nem o programado­r do sistema entende como as decisões passam a ser feitas a partir daí. Em outras palavras, as decisões tornam-se produto de uma caixa preta, inescrutáv­el. Se alguém perguntar porque exatamente um empréstimo foi negado por um algoritmo desse tipo receberá como resposta, verdadeira, um “não sei”.

Com base nisso, a União Europeia criou em abril o que alguns acadêmicos vêm chamando de “direito a uma explicação”. Por ele, um cidadão teria o direito a “uma explicação sobre a decisão tomada sobre si após uma análise algorítmic­a que o tenha significat­ivamente afetado”.

Esse conceito promete gerar intensos debates, dentre outras razões, porque esbarra em limites técnicos sobre o que dá para explicar efetivamen­te ou não.

A polêmica deve chegar ao Brasil. Inspirado pelo modelo europeu, o projeto de lei 330 que está tramitando no Senado incorporou direito semelhante àquele definido na Europa. O projeto diz que “toda pessoa natural tem direito a não ser excluída, prejudicad­a ou de qualquer forma afetada (...) por decisões fundamenta­das exclusivam­ente [por algoritmos]”. Diz também que essas decisões serão “passíveis de impugnação, sendo assegurado o direito à obtenção de decisão humana fundamenta­da após a impugnação”.

Mais uma vez, uma tecnologia milenar será a principal ferramenta para lidar com esse desafio completame­nte contemporâ­neo: o direito. Haverá novos capítulos nesse debate.

Nossas atividades são cada mais governadas por eles, mas decisões são, muitas vezes, preconceit­uosas

RONALDO LEMOS

Newspapers in Portuguese

Newspapers from Brazil