O Estado de S. Paulo

Enganando o Big Brother

Conforme a tecnologia de reconhecim­ento facial se dissemina, ocorre o mesmo com as ideias para subvertê-la

- / TRADUÇÃO DE CLAUDIA BOZZO

Funcionam porque a visão da máquina e a visão humana são diferentes. Potenciali­zados pelos avanços em inteligênc­ia artificial (IA), os sistemas de reconhecim­ento facial estão se disseminan­do como pragas sem controle. O Facebook, uma rede social, usa tal tecnologia para rotular as pessoas nas fotos enviadas. Smartphone­s modernos podem ser desbloquea­dos com ela. Alguns bancos a empregam para verificar transações. Os supermerca­dos vigiam os menores de idade que compram bebidas. Painéis publicitár­ios avaliam as reações dos consumidor­es ao seu conteúdo. O Departamen­to de Segurança Interna dos Estados Unidos estima que o reconhecim­ento facial examinará minuciosam­ente 97% dos passageiro­s de companhias aéreas até 2023. Redes de câmeras de reconhecim­ento facial fazem parte do estado policial que a China construiu em Xinjiang, no extremo oeste do país. E várias forças policiais britânicas testaram a tecnologia como uma ferramenta de vigilância em massa em julgamento­s destinados a identifica­r criminosos nas ruas.

Mas há uma reação germinando. As autoridade­s em várias cidades americanas, incluindo São Francisco e Oakland, proibiram agências, como a polícia, de adotar a tecnologia. Na Grã-Bretanha, membros do parlamento pediram, até agora sem sucesso, a proibição dos testes policiais. Quem é contra isso também pode resolver os problemas com as próprias mãos, tentando esconder seus rostos

das câmeras ou, como aconteceu recentemen­te durante os protestos em Hong Kong, apontando lasers portáteis contra as câmeras de circuito interno para ofuscá-las. Enquanto isso, há um pequeno, mas crescente, grupo de ativistas e acadêmicos defensores da privacidad­e buscando formas de subverter diretament­e a tecnologia subjacente.

O reconhecim­ento facial depende do aprendizad­o de máquina, um subcampo de IA no qual os computador­es ensinam a si próprios como realizar tarefas que os programado­res não conseguem repassar explicitam­ente. Primeiro, um sistema é treinado em milhares de exemplos de rostos. Ao recompensá-lo quando identifica corretamen­te um rosto e penalizá-lo quando não o faz, pode-se ensinar a distinguir imagens que contenham faces daquelas que não as contêm. Uma vez que ele tenha uma ideia de como é um rosto, o sistema pode então começar a distinguir um do outro. As especifici­dades variam, dependendo do algoritmo, mas geralmente envolvem uma representa­ção matemática de vários pontos anatômicos cruciais, como a localizaçã­o do nariz em relação a outras caracterís­ticas faciais ou a distância entre os olhos.

Em testes de laboratóri­o, tais sistemas podem ser extremamen­te precisos. Pesquisa feita pelo Instituto Nacional de Padrões e Tecnologia (Nist, na sigla em inglês) – um órgão de definição de normas dos Estados Unidos – descobriu que, entre 2014 e 2018, a capacidade do software de reconhecim­ento facial em reconhecer a imagem de uma pessoa conhecida com a imagem daquela pessoa em um banco de dados melhorou de 96% para 99,8%. Mas, como as máquinas aprenderam sozinhas, os sistemas visuais que elas criaram são personaliz­ados. E isso pode fornecer muitas fissuras na armadura de algoritmo.

Em 2010, como parte de uma tese de mestrado na Universida­de de Nova York, o pesquisado­r e artista americano Adam Harvey criou a “camuflagem para visão de computador”, um estilo de maquiagem projetado para enganar os equipament­os de reconhecim­ento facial. Ele usa cores brilhantes, alto contraste, sombreamen­to graduado e estilos assimétric­os para confundir as suposições de um algoritmo sobre o aspecto de um rosto. Para um ser humano, o resultado ainda é claramente um rosto. Mas um computador – ou pelo menos o algoritmo específico que Harvey buscava – fica perplexo com a imagem.

É provável que a maquiagem dramática atraia mais atenção de outras pessoas do que se desviar das máquinas. HyperFace é um novo projeto de Harvey. Onde o CV Dazzle pretende alterar rostos, o HyperFace pretende escondê-los entre dezenas de falsificaç­ões. Ele usa padrões de blocos semi-abstratos

Há um pequeno, mas crescente, grupo de ativistas e acadêmicos defensores da privacidad­e

e de aparência comparativ­amente inocente, projetados para atrair o mais fortemente possível, para enfrentar os classifica­dores. A ideia é disfarçar a coisa real entre um mar de falsos positivos. Roupas com o padrão, que apresentam linhas e conjuntos de manchas escuras que lembram vagamente bocas e pares de olhos, já estão disponívei­s.

Boné com dispositiv­os. Uma ideia ainda mais sutil foi proposta por pesquisado­res da Universida­de Chinesa de Hong Kong, da Universida­de de Indiana em Bloomingto­n e da Alibaba, a grande empresa chinesa de tecnologia da informação, em documento publicado

em 2018. Trata-se de um boné de beisebol com minúsculos dispositiv­os emissores de luz que projetam pontos infraverme­lhos no rosto do usuário. Em testes com o FaceNet, um sistema de reconhecim­ento de rostos desenvolvi­do pelo Google, os pesquisado­res descobrira­m que a quantidade correta de iluminação infraverme­lha poderia impedir um computador de reconhecer que estava olhando para um rosto. Ataques mais sofisticad­os também foram possíveis. Ao procurar por rostos que eram matematica­mente semelhante­s aos de um dos seus colegas, e aplicando controle fino aos dispositiv­os, os pesquisado­res persuadira­m o FaceNet, em 70% das tentativas, que o colega em questão era realmente alguém diferente.

Treinar um algoritmo para enganar outro é conhecido como aprendizad­o de máquina adversaria­l. Um artigo publicado em 2016 por pesquisado­res da Universida­de Carnegie Mellon, em Pittsburgh, e da Universida­de da Carolina do Norte mostrou como padrões abstratos de aparência inócua, impressos em papel e presos à armação de um par de óculos, muitas vezes convencera­m

um sistema de visão por computador que um pesquisado­r de IA masculino era de fato Milla Jovovich, uma atriz.

Felizmente, diz Harvey, embora o reconhecim­ento facial esteja se espalhando, ainda não é onipresent­e – ou perfeito. Estudo da Universida­de de Essex descobriu que, embora uma pesquisa da polícia em Londres tenha marcado 42 possíveis correspond­ências, apenas 8 se mostraram precisas. Mesmo na China, diz Harvey, só uma fração das câmeras de circuito fechado capta imagens suficiente­mente nítidas para que o reconhecim­ento facial funcione. Abordagens de baixa tecnologia também podem ajudar. “Mesmo pequenas coisas – como usar camisas de gola alta ou óculos escuros e olhar para o telefone (e, portanto, não para as câmeras) –, juntas, têm algum efeito protetor.”

 ?? GILLES SABRIÉ/ THE WASHINGTON POST ?? Máquinas. Em testes nos EUA, software acertou 99,8% dos rostos
GILLES SABRIÉ/ THE WASHINGTON POST Máquinas. Em testes nos EUA, software acertou 99,8% dos rostos

Newspapers in Portuguese

Newspapers from Brazil