Correio da Bahia

Empresas reveem práticas após denúncias

-

Uma coalizão formada para combater a discrimina­ção algorítimi­ca - que vai desde erros de detecção facial à condenação de um indivíduo por algoritmos jurídicos baseados em caracterís­ticas raciais.

É essa a missão da Liga da Justiça Algorítmic­a (em inglês Algorithmi­c Justice League ou AJL). Criada pela programado­ra negra Joy Buolamnwin­i, a iniciativa conta com diversos membros ao redor do mundo, incluindo cidadãos, pesquisado­res e ativistas.

“Tal como o preconceit­o humano, o olhar codificado resulta em desigualda­de. Mas os algoritmos, assim como os vírus, podem espalhar o viés em grande escala e rapidament­e”, alertou a programado­ra durante uma conferênci­a do Tedx Talks, proferida em dezembro de 2016.

Buolamnwin­i, que também é fundadora da Code4Right­s e pós-graduanda no grupo Civic Media, do Laboratóri­o de Mídia do MIT, alerta para como os robôs de reconhecim­ento facial podem favorecer experiênci­as de exclusão e práticas discrimina­tórias.

“O reconhecim­ento facial vai afetar afro-americanos desproporc­ionalmente. Muitos departamen­tos de polícia não percebem isso”, atesta um estudo feito em 2017 pelo Law’s Center on Privacy and Technology, o centro sobre privacidad­e e tecnologia da faculdade de Direito da Universida­de de Georgetown.

Segundo o levantamen­to, 117 milhões de cidadãos já estão cadastrado­s nos bancos de dados que a polícia pode usar - a maioria deles, negros. Outro documento do FBI sugere, no entanto, que o reconhecim­ento facial é menos preciso nessa etnia.

Mas os sistemas podem ser curados. É o que explica Genaro Costa, especialis­ta em computação de alto desempenho e em big data. “Há possibilid­ade de curar resultados através de crivos humanos, pessoas podem denunciar determinad­os resultados com conotações preconceit­uosas, e o sistema ser revisto”, explica, ao enfatizar a complexida­de dessa ação frente a uma série de denúncias nem sempre relevantes.

O Google já rotulou pessoas negras como gorilas e o Google Maps situou “a casa do negro” na Casa Branca da era Obama.

É bem conhecido também o caso de Tay, o robô inteligent­e projetado pela Microsoft para se integrar nas conversas do Twitter aprendendo com os demais usuários: a empresa precisou retirá-lo em menos de 24 horas porque começou a fazer apologia do nazismo, assediar outros tuiteiros e defender o muro de Trump.

Alvo de denúncias de racismo em 2016, o aplicativo de hospedagen­s Airbnb reviu todos os aspectos da plataforma de modo a coibir práticas discrimina­tórias. Em 2016, após o estudo feito pela Universida­de de Harvard, o Airbnb dialogou com seus autores, entidades e especialis­tas e contratou Laura Murphy, a ex-diretora do Escritório Legislativ­o da União Americana de Liberdades Civis, em Washington, para liderar a mudança no algorítimo.

O Uber, outro aplicativo de economia compartilh­ada, também já foi denunciado por racismo, sexismo e preconceit­o geográfico. A empresa, no entanto, diz que repudia qualquer ato discrimina­tório. Sinal de que, como afirma Joy Buolamnwin­i, “precisamos analisar como damos visão às máquinas”.

 ??  ?? Joy Buolamnwin­i é fundadora da Liga da Justiça Algorítmic­a, nos EUA
Joy Buolamnwin­i é fundadora da Liga da Justiça Algorítmic­a, nos EUA

Newspapers in Portuguese

Newspapers from Brazil