Ronaldo Lemos

Advogado, diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro.

Salvar artigos

Recurso exclusivo para assinantes

assine ou faça login

Ronaldo Lemos
Descrição de chapéu

Batalha pela realidade está começando

Quem acha que o tempo das 'fake news' está passando precisa pensar melhor

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Diretor Jordan Peele faz vídeo com Obama para denunciar notícias falsas - Folhapress

O diretor Jordan Peele (Oscar de roteiro por "Corra!") disseminou um vídeo em que Barack Obama aparece xingando Donald Trump com um termo chulo ("deepshit"). Só um problema: o vídeo é falso.

Foi gerado por técnicas de inteligência artificial —e dublado por— Peele que cada vez mais permitem sintetizar imagens e vídeos indistintos do que chamamos de realidade.

Esse fenômeno é chamado de "deepfake" (falsificação profunda). Quem acha que o tempo das "fake news" está passando precisa pensar melhor. Peele soltou o vídeo justamente para alertar sobre a popularização e o barateamento dessas novas ferramentas.

O que torna esse tema especialmente grave é que confiamos em imagens e em vídeos. Estamos culturalmente programados a aceitar o que vemos com nossos próprios olhos como real. Essa confiança pode agora ser abusada.

O pesquisador Giorgio Patrini dá em seu site um exemplo estarrecedor. Ele publicou quatro fotos de pessoas diferentes, perguntando para os leitores qual seria a imagem "falsa".

Para a surpresa de quem vê as imagens, a resposta é que todas são falsas. E mais importante: nenhuma daquelas pessoas retratadas nas fotos existe.

Os rostos foram sintetizados digitalmente, utilizando aprendizado de máquina, e são indistinguíveis da imagem de pessoas reais.

O que faltou discutir na semana passada quando o vídeo de Peele viralizou é como combater as "deepfakes".Hoje, as ferramentas de análise forense de vídeos e imagens são facilmente enganadas por esse tipo de técnica.

Em outras palavras, se for preciso provar que uma imagem dessa natureza é falsa, há chance grande de a perícia ser inconclusiva.

Com isso, há dois enfoques principais sendo propostos como antídoto ao fenômeno. O primeiro é utilizar a própria inteligência artificial para detectar se uma imagem ou vídeo é falso. Esse enfoque fazia muito sentido até pouco tempo atrás.

A questão é que surgiu um novo método que transforma o antídoto em veneno. Chamado GAN (acrônimo de "redes adversárias generativas"), ele faz com que a criação de uma técnica para identificar imagens falsas com inteligência artificial contribua para tornar as falsificações ainda mais perfeitas. Com um GAN os falsificadores poderão aperfeiçoar sua técnica, tornando a identificação do que é falso ainda mais difícil.

O outro enfoque é o uso de blockchain para certificação da captação de imagens virtuais. Em outras palavras, toda imagem captada diretamente da realidade, com celulares ou câmeras profissionais, seria registrada num arquivo global, imutável e acessível em qualquer parte do mundo, certificando que aquela imagem é "real".

O problema desse enfoque é que ele é extremamente difícil de implementar. Além disso, qualquer edição na imagem ou no vídeo (por exemplo, colocando um filtro) tornaria a "certidão de realidade" inválida.

Essas duas estratégias são insatisfatórias. Até o momento, são o que há de mais concreto para combater "deepfakes". Se eu fosse pessimista, diria que estamos lascados. Como sou otimista, tenho confiança de que a inventividade humana irá superar também esse abacaxi.

Já era 'Deepfakes' para gerar vídeos do ex-presidente Obama

Já é 'Deepfakes' para transformar os atores e atrizes de todos os filmes em Nicholas Cage

Já vem O primeiro caso de uso político de 'deepfakes' em áudio, imagem ou vídeo

LINK PRESENTE: Gostou deste texto? Assinante pode liberar cinco acessos gratuitos de qualquer link por dia. Basta clicar no F azul abaixo.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.