‘Não devemos entrar em pânico, e sim nos preparar contra deepfakes’
Especialista alerta sobre fenômeno de falsificações que combinam imagens usando inteligência artificial
“Os modelos de deepfakes estão ficando cada vez melhores, estão sendo comoditizados. Só porque ainda não vimos um uso generalizado não significa que devemos ser complacentes
são paulo Não devemos entrar em pânico. É o conselho de Sam Gregory, 45, diretor da organização Witness, de promoção da tecnologia para a defesa dos direitos humanos, sobre as deepfakes. Em vez disso, devemos nos preparar, acrescenta ele.
Deepfake é como se convencionou chamar a combinação de imagens, usando uma técnica de inteligência artificial denominada aprendizado de máquina. É usada, por exemplo, para sobrepor o rosto do ator Nicolas Cage sobre outros, em paródias online.
O fenômeno está se ampliando. Segundo a holandesa Deeptrace Labs, o número de vídeos deepfake cresceu 84% neste ano no mundo. Mas o dado mais importante, segundo Gregory, é que 96% são combinações pornográficas, atingindo mulheres.
Ou seja, no momento, a questão urgente é de violência de gênero. E ainda há tempo, diz o especialista, para uma preparação melhor das plataformas, dos jornalistas e do público, em comparação com o impacto de ondas anteriores de desinformação.
Gregory fala nesta quintafeira (17) no seminário Desinformação: Antídotos e Tendências, que a ANJ (Associação Nacional de Jornais) realiza em São Paulo.
Existem estudos mostrando o crescimento das deepfakes e o quanto nelas é pornografia?
Os dados mais recentes, do DeepTrace Labs, mostram que o número de deepfakes no mundo quase dobrou em sete meses. Mas o mais notável é que 96% são imagens sexuais não consensuais. Às vezes é pornografia com celebridades sem seu consentimento ou com pessoas comuns. E já sabemos de casos em que jornalistas foram atacadas, como as horrendas falsificações da indiana Rana Ayyub.
É importante pensarmos nas deepfakes, no momento, como questão de violência de gênero. Mas não presumir que é onde isso vai acabar. Isso não significa que não vá se expandir ou se transformar em metástase para outras áreas de desinformação.
Como se preparar?
A Witness passou o último ano e meio analisando possíveis ameaças e soluções. Na recente reunião no Brasil, participantes viram o que a tecnologia poderia fazer e a puseram no contexto de suas realidades.
Observaram que seria possível colocar em risco os líderes comunitários mais ameaçados, minar as possibilidades de usar o vídeo como prova e sobrecarregar a capacidade insuficiente de recursos de jornalistas. Também se preocuparam com o modo como as pessoas com poder usarão isso para afirmar que algo que as compromete é uma fraude, como começam a questionar o conteúdo verdadeiro.
Isso tudo é verdade, especialmente quando você pensa nas deepfakes como parte de uma categoria mais ampla de novas formas de manipulação, orientadas por inteligência artificial, que permitem
fazer coisas como criar uma simulação do rosto, da voz, dos movimentos corporais. Ou edições sutis num quadro de vídeo, removendo objetos ou alterando o fundo.
Os modelos de deepfakes estão ficando cada vez melhores e mais fáceis de adaptar. Além disso, estão sendo comoditizados, disponibilizados em aplicativos. Só porque ainda não vimos um uso generalizado não significa que devemos ser complacentes.
Mas o sr. não parece alarmado, ao contrário de parte da reação que vemos hoje. Por quê? As deepfakes não trarão o colapso da confiança ou o fim da verdade, como falam alguns?
A retórica sobre “o fim da verdade” vem das pessoas que já falavam “você não pode acreditar em nada”, e isso não é verdade para a maioria dos áudios e vídeos online nem para as deepfakes.
Não devemos entrar em pânico. Em vez disso, devemos nos preparar. Temos uma janela de oportunidade, antes que as deepfakes se tornem ainda mais difundidas, para nos prepararmos melhor para elas do que fizemos nas ondas anteriores de desinformação.
Embora exista uma preocupação real, não estaremos nos ajudando se proclamarmos “o fim da verdade”. O que podemos
fazer é descobrir como nos preparar, e de uma maneira que coloque no centro da atenção as pessoas que foram mais excluídas da discussão sobre os danos e as possíveis soluções da tecnologia, principalmente as pessoas marginalizadas e, mais amplamente, aquelas fora dos EUA e da Europa Ocidental.
O que é mais perigoso: deepfakes ou o descrédito dos vídeos verdadeiros? O sr. já mencionou que essa é uma das preocupações no Brasil, país com histórico de violência policial e onde os vídeos por vezes são a única forma de provar o que acontece.
A revolução dos smartphones permitiu que as pessoas mostrassem realidades da violência policial ou de crimes de guerra ou expusessem corrupção.
No entanto, nas nossas oficinas no Brasil, os grupos baseados em favelas observam que a prevalência de deepfakes ou sua suposta existência será usada para questionar a integridade de qualquer vídeo gravado como prova de violência policial ou militar.
Ao mesmo tempo, assim como os líderes comunitários enfrentaram ataques à reputação usando ferramentas anteriores como Photoshop e assédio online, eles veem como isso vai se adicionar àquilo.
O que será mais importante a partir de agora, desmascarar uma deepfake ou confirmar que um vídeo é real?
Haverá uma exigência maior para provar a realidade, seja desmascarando falsidade ou confirmando veracidade. O problema com as deepfakes e outras mídias sintéticas é que nem as pessoas comuns nem os jornalistas e checadores estão equipados para discerni-las.
Há experiência em jornalismo no que é chamado de “verificação de código aberto”, em que você monitora a origem dos vídeos e garante que eles não foram reciclados ou manipulados. No entanto, mesmo os jornalistas com essa experiência não possuem habilidades extensas para detectar deepfakes.
Não podemos esperar que pessoas comuns identifiquem as deepfakes. Claro, no momento elas são mais discerníveis, pelas falhas nos vídeos, mas isso será corrigido com o tempo. E é menos provável identificar um vídeo compartilhado em grupo de WhatsApp, em baixa resolução.
Como WhatsApp, Facebook, YouTube e outros podem ajudar nisso?
Precisamos de boas ferramentas técnicas amplamente disponíveis para complementar o raciocínio humano. Plataformas como Facebook e Google podem detectar deepfakes prejudiciais ou mal-intencionadas e levá-las a serviços de checagem ou recusá-las em suas plataformas. Além disso, também podem fornecer um serviço de detecção mais amplo.
Será um jogo constante de gato e rato, mas elas devem criar detectores e disponibilizá-los de forma mais sofisticada aos jornalistas, para que eles possam detectar e, mais importante, explicar o que detectam ao público.
E o público?
Não devemos pressionar demais os consumidores de notícias. Eu acho que a educação midiática é fundamental para permitir que as pessoas façam melhores julgamentos com base na fonte, na credibilidade e na trajetória, e não apenas nos pixels de um vídeo.
Isso porque pesquisas já mostraram que as pessoas não conseguem identificar facilmente a manipulação sutil baseada em inteligência artificial, como deepfakes de sincronização labial. Em vez de pedir às pessoas que identifiquem as deepfakes por conta própria, precisamos exigir que as plataformas forneçam melhores sinais ao público sobre a manipulação, com sinais técnicos que possam complementar a educação de mídia.
Uma parte final dessa equação é sobre política. Essa é uma tarefa difícil, mas precisamos adotar normas éticas sobre como as pessoas usam deepfakes enganosas na política. Antes que o uso se generalize, devemos pressionar os políticos a se comprometerem a não usar deepfakes em suas campanhas. Nas recentes eleições europeias, muitos assumiram esse compromisso. Nos Estados Unidos, infelizmente, só um candidato à Presidência assumiu.
No encontro no Brasil, em julho, a necessidade de educação midiática foi uma das conclusões centrais. Qual deve ser o foco principal de uma educação sobre deepfakes?
Organizamos duas reuniões no Brasil, para entender como priorizar as ameaças e soluções. As principais conclusões foram de que precisamos investir num conhecimento de mídia que lide com as deepfakes, mas também que as pessoas ainda não chegaram a um acordo quanto às fake news existentes.
Os participantes de grupos baseados nas favelas apontaram a importância de ouvir primeiro sobre o que as pessoas estão preocupadas e fundamentar a educação midiática em influenciadores online e offline, como estrelas do YouTube e músicos baseados nas comunidades.
Eu compreendo o ceticismo das pessoas em relação à educação midiática sobre notícias falsas. Nas sociedades polarizadas, sabemos que não é apenas a dimensão fato-oufalsidade que importa para as pessoas, quando elas avaliam e compartilham informações.