Empresas reveem práticas após denúncias
Uma coalizão formada para combater a discriminação algorítimica - que vai desde erros de detecção facial à condenação de um indivíduo por algoritmos jurídicos baseados em características raciais.
É essa a missão da Liga da Justiça Algorítmica (em inglês Algorithmic Justice League ou AJL). Criada pela programadora negra Joy Buolamnwini, a iniciativa conta com diversos membros ao redor do mundo, incluindo cidadãos, pesquisadores e ativistas.
“Tal como o preconceito humano, o olhar codificado resulta em desigualdade. Mas os algoritmos, assim como os vírus, podem espalhar o viés em grande escala e rapidamente”, alertou a programadora durante uma conferência do Tedx Talks, proferida em dezembro de 2016.
Buolamnwini, que também é fundadora da Code4Rights e pós-graduanda no grupo Civic Media, do Laboratório de Mídia do MIT, alerta para como os robôs de reconhecimento facial podem favorecer experiências de exclusão e práticas discriminatórias.
“O reconhecimento facial vai afetar afro-americanos desproporcionalmente. Muitos departamentos de polícia não percebem isso”, atesta um estudo feito em 2017 pelo Law’s Center on Privacy and Technology, o centro sobre privacidade e tecnologia da faculdade de Direito da Universidade de Georgetown.
Segundo o levantamento, 117 milhões de cidadãos já estão cadastrados nos bancos de dados que a polícia pode usar - a maioria deles, negros. Outro documento do FBI sugere, no entanto, que o reconhecimento facial é menos preciso nessa etnia.
Mas os sistemas podem ser curados. É o que explica Genaro Costa, especialista em computação de alto desempenho e em big data. “Há possibilidade de curar resultados através de crivos humanos, pessoas podem denunciar determinados resultados com conotações preconceituosas, e o sistema ser revisto”, explica, ao enfatizar a complexidade dessa ação frente a uma série de denúncias nem sempre relevantes.
O Google já rotulou pessoas negras como gorilas e o Google Maps situou “a casa do negro” na Casa Branca da era Obama.
É bem conhecido também o caso de Tay, o robô inteligente projetado pela Microsoft para se integrar nas conversas do Twitter aprendendo com os demais usuários: a empresa precisou retirá-lo em menos de 24 horas porque começou a fazer apologia do nazismo, assediar outros tuiteiros e defender o muro de Trump.
Alvo de denúncias de racismo em 2016, o aplicativo de hospedagens Airbnb reviu todos os aspectos da plataforma de modo a coibir práticas discriminatórias. Em 2016, após o estudo feito pela Universidade de Harvard, o Airbnb dialogou com seus autores, entidades e especialistas e contratou Laura Murphy, a ex-diretora do Escritório Legislativo da União Americana de Liberdades Civis, em Washington, para liderar a mudança no algorítimo.
O Uber, outro aplicativo de economia compartilhada, também já foi denunciado por racismo, sexismo e preconceito geográfico. A empresa, no entanto, diz que repudia qualquer ato discriminatório. Sinal de que, como afirma Joy Buolamnwini, “precisamos analisar como damos visão às máquinas”.