Folha de S.Paulo

Não acredite cegamente em algoritmos porque até eles erram

- Hannah Fry Professora associada de matemática das cidades da University College London The Wall Street Journal, traduzido do inglês por Paulo Migliacci

O Notting Hill Carnival é a maior festa de rua da Europa. Celebração da cultura negra do Reino Unido, atrai até 2 milhões de foliões, e milhares de policiais. Na edição de 2017, a polícia metropolit­ana de Londres colocou em operação um novo tipo de detetive: um algoritmo de reconhecim­ento facial que vasculhava a multidão em busca de mais de 500 pessoas que eram alvo de mandados de prisão, ou que estavam proibidas de participar do evento. A polícia, que circulava pela área em um furgão equipado com câmeras, esperava apanhar criminosos perigosos, e prevenir futuros crimes.

O experiment­o não funcionou bem. Das 96 pessoas identifica­das pelo algoritmo, só uma podia de fato ser considerad­a ameaça. Alguns erros eram óbvios, como por exemplo o caso da jovem que foi identifica­da como se fosse um suspeito homem, e careca. Muita gente foi parada e interrogad­a, e depois liberada pelos policiais. O único caso de identifica­ção “correta” foi de uma pessoa já tinha sido detida e interrogad­a pela polícia, e não era mais procurada.

Dado o índice medíocre de sucesso, seria de esperar que a polícia encarasse o experiment­o com humildade. Pelo contrário: Cressida Dick, a policial de mais alta patente do Reino Unido, disse se sentir “completame­nte confortáve­l” com o uso desse tipo de tecnologia, argumentan­do que o público quer que as autoridade­s policiais utilizem sistemas avançados. Na opinião de Dick, os atrativos do algoritmo importam mais que sua falta de eficácia.

Ela não está sozinha. Um sistema semelhante testado no País de Gales só estava correto em 7% dos casos. Dos 2,47 mil torcedores de futebol selecionad­os pelo algoritmo, apenas 173 representa­vam identifica­ções corretas. A polícia galesa defendeu a tecnologia, afirmando que “é claro que nenhum sistema de reconhecim­ento facial é 100% preciso sob todas as condições”. A polícia britânica expandirá o uso desse tipo de tecnologia nos próximos meses, e há outras forças policiais que seguirão seu exemplo. A polícia de Nova York, ao que se sabe, quer acesso ao banco de dados completos de carteiras de habilitaçã­o, para ajudar em seu programa de reconhecim­ento facial.

A avidez das forças policiais quanto a usar uma tecnologia imatura sublinha uma tendência preocupant­e que você talvez tenha percebido em outros campos. Os seres humanos têm o hábito de confiar no produto de um algoritmo sem questionar muito as consequênc­ias.

Basta ver os erros de escrita cuja culpa atribuímos a sistemas de verificaçã­o ortográfic­a, ou as histórias sobre pessoas que obedeceram as instruções de seus sistemas de GPS e caíram de um precipício. Presumimos que os sistemas de reconhecim­ento facial usados no controle de passaporte­s sejam precisos simplesmen­te porque estão nas fronteiras de nossos países.

Não há como duvidar do impacto profundame­nte posititar vo dos algoritmos sobre nossas vidas. Podem nos ajudar a diagnostic­ar câncer de mama, a apanhar assassinos seriais e a evitar desastres aéreos. Mas em nossa pressa por automatiza­r, substituím­os um problema por outro. Os algoritmos —por mais úteis e impression­antes que sejam —já nos causaram muita complicaçã­o.

Nossa relutância em questionar o poder de uma máquina deu a algoritmos de péssima qualidade o poder de tomar decisões que podem mudar vidas, e facilitou a ascensão de trapaceiro­s modernos.

Apesar da ausência de provas científica­s em apoio de suas afirmações, empresas vendem a governos e polícias algoritmos que podem supostamen­te “prever” se alguém é terrorista ou pedófilo com base em seus traços faciais. Outros insistem em que seus algoritmos são capazes de sugerir a mudança de uma linha de diálogo em um roteiro que tornará um filme mais lucrativo nas bilheteria­s.

Os problemas inerentes dos algoritmos são amplificad­os quando seu uso se combina à tendência humana a acei- uma autoridade artificial. Talvez seja esse exatamente o ponto errado: pensar em algoritmos como autoridade. Algoritmos cometerão erros e serão injustos. Com o tempo, melhorarão. Mas admitir que eles, como as pessoas, têm defeitos deveria diminuir nossa confiança cega e resultar em menos erros.

Os melhores resultados surgem quando algoritmos e pessoas trabalham juntos. Redes neurais que digitaliza­m imagens sobre câncer de mama não foram projetadas para diagnostic­ar tumores; sua função é avaliar uma vasta gama de células de forma a apontar algumas áreas suspeitas para observação pelo patologist­a.

É esse o futuro que espero, que algoritmos arrogantes e ditatoriai­s virem obsoletos. Precisamos questionar as decisões dos algoritmos, esquadrinh­ar seus motivos, responsabi­lizar as máquinas por seus erros, e recusar sistemas deficiente­s. Uma coisa é certa: na era do algoritmo, os seres humanos jamais foram tão importante­s.

“Em nossa pressa por automatiza­r, parecemos ter substituíd­o um problema por outro. Os algoritmos — por mais úteis e impression­antes que sejam— já nos causaram muita complicaçã­o

Newspapers in Portuguese

Newspapers from Brazil