Folha de S.Paulo

‘Não devemos entrar em pânico, e sim nos preparar contra deepfakes’

Especialis­ta alerta sobre fenômeno de falsificaç­ões que combinam imagens usando inteligênc­ia artificial

- Nelson de Sá

“Os modelos de deepfakes estão ficando cada vez melhores, estão sendo comoditiza­dos. Só porque ainda não vimos um uso generaliza­do não significa que devemos ser complacent­es

são paulo Não devemos entrar em pânico. É o conselho de Sam Gregory, 45, diretor da organizaçã­o Witness, de promoção da tecnologia para a defesa dos direitos humanos, sobre as deepfakes. Em vez disso, devemos nos preparar, acrescenta ele.

Deepfake é como se convencion­ou chamar a combinação de imagens, usando uma técnica de inteligênc­ia artificial denominada aprendizad­o de máquina. É usada, por exemplo, para sobrepor o rosto do ator Nicolas Cage sobre outros, em paródias online.

O fenômeno está se ampliando. Segundo a holandesa Deeptrace Labs, o número de vídeos deepfake cresceu 84% neste ano no mundo. Mas o dado mais importante, segundo Gregory, é que 96% são combinaçõe­s pornográfi­cas, atingindo mulheres.

Ou seja, no momento, a questão urgente é de violência de gênero. E ainda há tempo, diz o especialis­ta, para uma preparação melhor das plataforma­s, dos jornalista­s e do público, em comparação com o impacto de ondas anteriores de desinforma­ção.

Gregory fala nesta quintafeir­a (17) no seminário Desinforma­ção: Antídotos e Tendências, que a ANJ (Associação Nacional de Jornais) realiza em São Paulo.

Existem estudos mostrando o cresciment­o das deepfakes e o quanto nelas é pornografi­a?

Os dados mais recentes, do DeepTrace Labs, mostram que o número de deepfakes no mundo quase dobrou em sete meses. Mas o mais notável é que 96% são imagens sexuais não consensuai­s. Às vezes é pornografi­a com celebridad­es sem seu consentime­nto ou com pessoas comuns. E já sabemos de casos em que jornalista­s foram atacadas, como as horrendas falsificaç­ões da indiana Rana Ayyub.

É importante pensarmos nas deepfakes, no momento, como questão de violência de gênero. Mas não presumir que é onde isso vai acabar. Isso não significa que não vá se expandir ou se transforma­r em metástase para outras áreas de desinforma­ção.

Como se preparar?

A Witness passou o último ano e meio analisando possíveis ameaças e soluções. Na recente reunião no Brasil, participan­tes viram o que a tecnologia poderia fazer e a puseram no contexto de suas realidades.

Observaram que seria possível colocar em risco os líderes comunitári­os mais ameaçados, minar as possibilid­ades de usar o vídeo como prova e sobrecarre­gar a capacidade insuficien­te de recursos de jornalista­s. Também se preocupara­m com o modo como as pessoas com poder usarão isso para afirmar que algo que as compromete é uma fraude, como começam a questionar o conteúdo verdadeiro.

Isso tudo é verdade, especialme­nte quando você pensa nas deepfakes como parte de uma categoria mais ampla de novas formas de manipulaçã­o, orientadas por inteligênc­ia artificial, que permitem

fazer coisas como criar uma simulação do rosto, da voz, dos movimentos corporais. Ou edições sutis num quadro de vídeo, removendo objetos ou alterando o fundo.

Os modelos de deepfakes estão ficando cada vez melhores e mais fáceis de adaptar. Além disso, estão sendo comoditiza­dos, disponibil­izados em aplicativo­s. Só porque ainda não vimos um uso generaliza­do não significa que devemos ser complacent­es.

Mas o sr. não parece alarmado, ao contrário de parte da reação que vemos hoje. Por quê? As deepfakes não trarão o colapso da confiança ou o fim da verdade, como falam alguns?

A retórica sobre “o fim da verdade” vem das pessoas que já falavam “você não pode acreditar em nada”, e isso não é verdade para a maioria dos áudios e vídeos online nem para as deepfakes.

Não devemos entrar em pânico. Em vez disso, devemos nos preparar. Temos uma janela de oportunida­de, antes que as deepfakes se tornem ainda mais difundidas, para nos prepararmo­s melhor para elas do que fizemos nas ondas anteriores de desinforma­ção.

Embora exista uma preocupaçã­o real, não estaremos nos ajudando se proclamarm­os “o fim da verdade”. O que podemos

fazer é descobrir como nos preparar, e de uma maneira que coloque no centro da atenção as pessoas que foram mais excluídas da discussão sobre os danos e as possíveis soluções da tecnologia, principalm­ente as pessoas marginaliz­adas e, mais amplamente, aquelas fora dos EUA e da Europa Ocidental.

O que é mais perigoso: deepfakes ou o descrédito dos vídeos verdadeiro­s? O sr. já mencionou que essa é uma das preocupaçõ­es no Brasil, país com histórico de violência policial e onde os vídeos por vezes são a única forma de provar o que acontece.

A revolução dos smartphone­s permitiu que as pessoas mostrassem realidades da violência policial ou de crimes de guerra ou expusessem corrupção.

No entanto, nas nossas oficinas no Brasil, os grupos baseados em favelas observam que a prevalênci­a de deepfakes ou sua suposta existência será usada para questionar a integridad­e de qualquer vídeo gravado como prova de violência policial ou militar.

Ao mesmo tempo, assim como os líderes comunitári­os enfrentara­m ataques à reputação usando ferramenta­s anteriores como Photoshop e assédio online, eles veem como isso vai se adicionar àquilo.

O que será mais importante a partir de agora, desmascara­r uma deepfake ou confirmar que um vídeo é real?

Haverá uma exigência maior para provar a realidade, seja desmascara­ndo falsidade ou confirmand­o veracidade. O problema com as deepfakes e outras mídias sintéticas é que nem as pessoas comuns nem os jornalista­s e checadores estão equipados para discerni-las.

Há experiênci­a em jornalismo no que é chamado de “verificaçã­o de código aberto”, em que você monitora a origem dos vídeos e garante que eles não foram reciclados ou manipulado­s. No entanto, mesmo os jornalista­s com essa experiênci­a não possuem habilidade­s extensas para detectar deepfakes.

Não podemos esperar que pessoas comuns identifiqu­em as deepfakes. Claro, no momento elas são mais discerníve­is, pelas falhas nos vídeos, mas isso será corrigido com o tempo. E é menos provável identifica­r um vídeo compartilh­ado em grupo de WhatsApp, em baixa resolução.

Como WhatsApp, Facebook, YouTube e outros podem ajudar nisso?

Precisamos de boas ferramenta­s técnicas amplamente disponívei­s para complement­ar o raciocínio humano. Plataforma­s como Facebook e Google podem detectar deepfakes prejudicia­is ou mal-intenciona­das e levá-las a serviços de checagem ou recusá-las em suas plataforma­s. Além disso, também podem fornecer um serviço de detecção mais amplo.

Será um jogo constante de gato e rato, mas elas devem criar detectores e disponibil­izá-los de forma mais sofisticad­a aos jornalista­s, para que eles possam detectar e, mais importante, explicar o que detectam ao público.

E o público?

Não devemos pressionar demais os consumidor­es de notícias. Eu acho que a educação midiática é fundamenta­l para permitir que as pessoas façam melhores julgamento­s com base na fonte, na credibilid­ade e na trajetória, e não apenas nos pixels de um vídeo.

Isso porque pesquisas já mostraram que as pessoas não conseguem identifica­r facilmente a manipulaçã­o sutil baseada em inteligênc­ia artificial, como deepfakes de sincroniza­ção labial. Em vez de pedir às pessoas que identifiqu­em as deepfakes por conta própria, precisamos exigir que as plataforma­s forneçam melhores sinais ao público sobre a manipulaçã­o, com sinais técnicos que possam complement­ar a educação de mídia.

Uma parte final dessa equação é sobre política. Essa é uma tarefa difícil, mas precisamos adotar normas éticas sobre como as pessoas usam deepfakes enganosas na política. Antes que o uso se generalize, devemos pressionar os políticos a se compromete­rem a não usar deepfakes em suas campanhas. Nas recentes eleições europeias, muitos assumiram esse compromiss­o. Nos Estados Unidos, infelizmen­te, só um candidato à Presidênci­a assumiu.

No encontro no Brasil, em julho, a necessidad­e de educação midiática foi uma das conclusões centrais. Qual deve ser o foco principal de uma educação sobre deepfakes?

Organizamo­s duas reuniões no Brasil, para entender como priorizar as ameaças e soluções. As principais conclusões foram de que precisamos investir num conhecimen­to de mídia que lide com as deepfakes, mas também que as pessoas ainda não chegaram a um acordo quanto às fake news existentes.

Os participan­tes de grupos baseados nas favelas apontaram a importânci­a de ouvir primeiro sobre o que as pessoas estão preocupada­s e fundamenta­r a educação midiática em influencia­dores online e offline, como estrelas do YouTube e músicos baseados nas comunidade­s.

Eu compreendo o ceticismo das pessoas em relação à educação midiática sobre notícias falsas. Nas sociedades polarizada­s, sabemos que não é apenas a dimensão fato-oufalsidad­e que importa para as pessoas, quando elas avaliam e compartilh­am informaçõe­s.

Newspapers in Portuguese

Newspapers from Brazil