Não devemos entrar em pânico, e sim nos preparar, diz especialista em deepfakes

Diretor de organização fala sobre fenômeno das falsificações profundas, que combinam imagens usando inteligência artificial

Nelson de Sá
São Paulo

​Não devemos entrar em pânico. É o conselho de Sam Gregory, 45, diretor da organização Witness, de promoção da tecnologia para a defesa dos direitos humanos, sobre as deepfakes. Em vez disso, devemos nos preparar, acrescenta ele.

Deepfake, falsificação profunda, é como se convencionou chamar a combinação de imagens, usando uma técnica de inteligência artificial denominada aprendizado de máquina. É usada, por exemplo, para sobrepor o rosto do ator Nicolas Cage sobre outros, em dezenas de paródias online.

O fenômeno está se ampliando. Segundo a holandesa Deeptrace Labs, o número de vídeos deepfake cresceu 84% neste ano no mundo. Mas o dado mais importante, segundo Gregory, é que 96% são combinações pornográficas, atingindo mulheres.

Sam Gregory, especialista em novas formas de desinformação, durante palestra no MIT, nos EUA
Sam Gregory, especialista em novas formas de desinformação, durante palestra no MIT, nos EUA - Divulgação

Ou seja, no momento, a questão urgente é de violência de gênero. E ainda há tempo, diz o especialista, para uma preparação melhor das plataformas, dos jornalistas e do público, em comparação com o impacto de ondas anteriores de desinformação.

Gregory fala nesta quinta (17) às 9h15 no seminário Desinformação: Antídotos e Tendências, que a ANJ (Associação Nacional de Jornais) realiza em São Paulo. Participam do evento, entre outros, os diretores de Redação da Folha, Sérgio Dávila, e de O Globo, Alan Gripp, e o diretor de Conteúdo do UOL, Murilo Garavello.

Existem estudos mostrando o crescimento das deepfakes e o quanto nelas é pornografia? - Os dados mais recentes, do DeepTrace Labs, mostram que o número de deepfakes em todo o mundo quase dobrou em sete meses. Mas o mais notável é que 96% são imagens sexuais não consensuais. Às vezes é pornografia com celebridades sem seu consentimento, outras, com pessoas comuns. E já sabemos de casos em que jornalistas foram atacadas, como as horrendas falsificações da jornalista indiana Rana Ayyub.

É importante pensarmos nas deepfakes, no momento, como uma questão de violência de gênero. Mas não devemos presumir que é onde isso vai acabar. Isso não significa que não vá se expandir e afetar mais mulheres ou se transformar em metástase para outras áreas de desinformação.

Como se preparar para isso? - A Witness passou o último ano e meio analisando as possíveis ameaças e soluções. Na recente reunião no Brasil, participantes de vários setores viram o que a tecnologia poderia fazer e a puseram no contexto de suas realidades.

Observaram que seria possível colocar em risco os líderes comunitários mais ameaçados, minar as possibilidades de usar o vídeo como prova e sobrecarregar a capacidade insuficiente de recursos de jornalistas e checadores. Também se preocuparam com o modo como as pessoas com poder usarão isso para afirmar que algo que as compromete é uma fraude, como começam a questionar o conteúdo verdadeiro.

Isso tudo é verdade, especialmente quando você pensa nas deepfakes como parte de uma categoria mais ampla de novas formas de manipulação, orientadas por inteligência artificial, que permitem fazer coisas como criar uma simulação realista do rosto, da voz ou dos movimentos corporais. Ou edições sutis num quadro de vídeo, removendo objetos ou alterando o fundo. Essa tecnologia está ficando mais acessível.

Os modelos de deepfakes estão ficando cada vez melhores e mais fáceis de adaptar de uma pessoa para outra. Exigem menos exemplos de alguém para fazer uma boa falsificação. Além disso, estão sendo comoditizados, você pode acessar um site e solicitar uma deepfake. Estão sendo disponibilizados cada vez mais em aplicativos. Se combinarmos isso com o rápido avanço na falsificação de áudio, você tem motivos reais para se preocupar. Só porque ainda não vimos uso generalizado não significa que devemos ser complacentes.

Captura de tela do FakeApp, programa que permite adulterar imagens de forma realística
Captura de tela do FakeApp, programa que permite adulterar imagens de forma realística - Handout via The New York Times

Mas você não parece alarmado, ao contrário de parte da reação que vemos hoje. Por quê? As deepfakes não trarão o colapso da confiança ou o fim da verdade, como falam alguns? - A retórica sobre "o fim da verdade" vem das pessoas que já falavam "você não pode acreditar em nada", e isso não é verdade para a maioria dos áudios e vídeos online nem para as deepfakes.

Não devemos entrar em pânico. Em vez disso, devemos nos preparar. Temos uma janela de oportunidade, antes que as deepfakes se tornem ainda mais difundidas, para nos prepararmos melhor para elas do que fizemos nas ondas anteriores de desinformação.

Embora exista uma preocupação real, não estaremos nos ajudando se proclamarmos "o fim da verdade". Em vez disso, o que podemos fazer é descobrir como nos preparar e como fazer isso de uma maneira que coloque no centro da atenção as pessoas que foram mais excluídas da discussão sobre os danos e as possíveis soluções da tecnologia, principalmente as pessoas marginalizadas e, mais amplamente, aquelas fora dos EUA e da Europa Ocidental.

O que é mais perigoso, as deefakes ou o descrédito dos vídeos verdadeiros? Você já mencionou que essa é uma das principais preocupações no Brasil, país com histórico de violência policial e onde os vídeos por vezes são a única forma de provar o que acontece. - A revolução dos smartphones permitiu que as pessoas mostrassem realidades da violência policial ou de crimes de guerra ou expusessem corrupção.

No entanto, nas nossas oficinas no Brasil, os grupos baseados em favelas observam que a prevalência de deepfakes ou sua suposta existência será usada para questionar a integridade de qualquer vídeo gravado como prova de violência policial ou militar.

Ao mesmo tempo, assim como os líderes comunitários enfrentaram ataques à reputação usando ferramentas anteriores como Photoshop e assédio online, eles veem como isso vai se adicionar àquilo.

O que será mais importante a partir de agora, desmascarar uma deepfake ou confirmar que um vídeo é real? - Haverá uma exigência maior para provar a realidade, seja desmascarando falsidade ou confirmando veracidade. O problema com as deepfakes e outras mídias sintéticas é que nem as pessoas comuns nem os jornalistas e checadores estão equipados para discerni-las.

Há experiência em jornalismo no que é chamado de "verificação de código aberto", em que você monitora a origem dos vídeos e garante que eles não foram reciclados ou manipulados. No entanto, mesmo os jornalistas com essa experiência não possuem habilidades extensas para detectar deepfakes.

Também não podemos esperar que as pessoas comuns identifiquem as deepfakes. Claro, no momento elas são mais discerníveis, pelas falhas nos vídeos ou pelo fato de que supostamente não piscam, mas isso será corrigido com o tempo. E é menos provável identificar um vídeo compartilhado em grupo de WhatsApp, em baixa resolução.

Como é que WhatsApp, Facebook, YouTube e outros podem ajudar nisso? - Precisamos de boas ferramentas técnicas amplamente disponíveis para complementar o raciocínio humano. Plataformas como o Facebook e o Google podem detectar deepfakes prejudiciais ou mal-intencionadas e levá-las a serviços de checagem ou se recusar a permiti-las em suas plataformas. Além disso, também podem fornecer um serviço de detecção mais amplo.

Será um jogo constante de gato e rato, mas elas devem criar detectores e disponibilizá-los de forma mais sofisticada aos jornalistas, para que eles possam detectar e, mais importante, explicar o que detectam ao público.

E o público? - Não devemos pressionar demais os consumidores de notícias. Eu acho que a educação midiática é fundamental para permitir que as pessoas façam melhores julgamentos com base na fonte, na credibilidade e na trajetória, e não apenas nos pixels de um vídeo.

Isso porque as pesquisas já mostraram que as pessoas não conseguem identificar facilmente a manipulação sutil baseada em inteligência artificial, como as deepfakes de sincronização labial. Portanto, em vez de pedir às pessoas que identifiquem as deepfakes por conta própria, precisamos exigir que as plataformas forneçam melhores sinais ao público sobre a manipulação, fornecendo sinais técnicos que possam complementar a educação de mídia.

Uma parte final dessa equação é sobre política. Essa é uma tarefa difícil, mas precisamos adotar normas éticas sobre como as pessoas usam deepfakes enganosas na política. Antes que o uso se generalize, devemos pressionar os políticos a se comprometerem a não usar deepfakes em suas campanhas. Nas recentes eleições europeias, muitos assumiram esse compromisso. Nos Estados Unidos, infelizmente, só um candidato à Presidência assumiu.

No encontro no Brasil, em julho, a necessidade de educação midiática foi uma das conclusões centrais. Qual deve ser o foco principal de uma educação sobre deepfakes? - Organizamos duas reuniões no Brasil, para entender como priorizar as ameaças e soluções. As principais conclusões foram de que precisamos investir num conhecimento de mídia que lide com as deepfakes, mas também que as pessoas ainda não chegaram a um acordo quanto às fake news existentes.

Os participantes de grupos baseados nas favelas apontaram a importância de ouvir primeiro sobre o que as pessoas estão preocupadas e fundamentar a educação midiática em influenciadores online e offline, como estrelas do YouTube e músicos baseados nas comunidades.

Eu compreendo o ceticismo das pessoas em relação à educação midiática sobre notícias falsas. Nas sociedades polarizadas, sabemos que não é apenas a dimensão fato-ou-falsidade que importa para as pessoas, quando elas avaliam e compartilham informações.

Sam Gregory, 45 - Especialista em novas formas de desinformação, é diretor da Witness, organização fundada em 1992 para difundir o uso de tecnologia na defesa de direitos humanos, presente em mais de cem países. Formado em Oxford, fez mestrado em política pública na Harvard Kennedy School, onde lecionou de 2010 até o ano passado. Assessora instituições como First Draft, de combate à desinformação, e a Corte Criminal Internacional.

Desinformação: Antídotos e Tendências

Quinta, 17/10, das 8h30 às 13h
Onde: Teatro ​Unibes, no piso térreo da Unibes Cultural. Rua Oscar Freire, 2.500, próximo à estação Sumaré (linha 2-verde do Metrô). Inscrições encerradas

9hAbertura por Marcelo Rech, presidente da ANJ

9h15'Deepfakes: a última geração da desinformação'
Sam Gregory, diretor da Witness e especialista em deepfakes, vídeos manipulados com o uso de inteligência artificial

10h15 - 'Desinformação nas eleições'
Debatedores: Daniel Bramatti, presidente da Abraji (Associação Brasileira de Jornalismo Investigativo), Ana Cristina Rosa, assessora do Tribunal Superior Eleitoral, e Angela Pimenta, diretora de Operações do Projor (Instituto para o Desenvolvimento do Jornalismo).
Moderadora: Patrícia Blanco, presidente-executiva do Instituto Palavra Aberta

11h45'Os jornalistas e a desinformação'
Debatedores: Alan Gripp, diretor de Redação de O Globo, Dione Kuhn, coordenadora do Grupo de Investigação da RBS, e Murilo Garavello, diretor de Conteúdo do UOL.
Moderador: Sérgio Dávila, diretor de Redação da Folha

Tópicos relacionados

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.