O diretor Jordan Peele (Oscar de roteiro por "Corra!") disseminou um vídeo em que Barack Obama aparece xingando Donald Trump com um termo chulo ("deepshit"). Só um problema: o vídeo é falso.
Foi gerado por técnicas de inteligência artificial —e dublado por— Peele que cada vez mais permitem sintetizar imagens e vídeos indistintos do que chamamos de realidade.
Esse fenômeno é chamado de "deepfake" (falsificação profunda). Quem acha que o tempo das "fake news" está passando precisa pensar melhor. Peele soltou o vídeo justamente para alertar sobre a popularização e o barateamento dessas novas ferramentas.
O que torna esse tema especialmente grave é que confiamos em imagens e em vídeos. Estamos culturalmente programados a aceitar o que vemos com nossos próprios olhos como real. Essa confiança pode agora ser abusada.
O pesquisador Giorgio Patrini dá em seu site um exemplo estarrecedor. Ele publicou quatro fotos de pessoas diferentes, perguntando para os leitores qual seria a imagem "falsa".
Para a surpresa de quem vê as imagens, a resposta é que todas são falsas. E mais importante: nenhuma daquelas pessoas retratadas nas fotos existe.
Os rostos foram sintetizados digitalmente, utilizando aprendizado de máquina, e são indistinguíveis da imagem de pessoas reais.
O que faltou discutir na semana passada quando o vídeo de Peele viralizou é como combater as "deepfakes".Hoje, as ferramentas de análise forense de vídeos e imagens são facilmente enganadas por esse tipo de técnica.
Em outras palavras, se for preciso provar que uma imagem dessa natureza é falsa, há chance grande de a perícia ser inconclusiva.
Com isso, há dois enfoques principais sendo propostos como antídoto ao fenômeno. O primeiro é utilizar a própria inteligência artificial para detectar se uma imagem ou vídeo é falso. Esse enfoque fazia muito sentido até pouco tempo atrás.
A questão é que surgiu um novo método que transforma o antídoto em veneno. Chamado GAN (acrônimo de "redes adversárias generativas"), ele faz com que a criação de uma técnica para identificar imagens falsas com inteligência artificial contribua para tornar as falsificações ainda mais perfeitas. Com um GAN os falsificadores poderão aperfeiçoar sua técnica, tornando a identificação do que é falso ainda mais difícil.
O outro enfoque é o uso de blockchain para certificação da captação de imagens virtuais. Em outras palavras, toda imagem captada diretamente da realidade, com celulares ou câmeras profissionais, seria registrada num arquivo global, imutável e acessível em qualquer parte do mundo, certificando que aquela imagem é "real".
O problema desse enfoque é que ele é extremamente difícil de implementar. Além disso, qualquer edição na imagem ou no vídeo (por exemplo, colocando um filtro) tornaria a "certidão de realidade" inválida.
Essas duas estratégias são insatisfatórias. Até o momento, são o que há de mais concreto para combater "deepfakes". Se eu fosse pessimista, diria que estamos lascados. Como sou otimista, tenho confiança de que a inventividade humana irá superar também esse abacaxi.
Já era 'Deepfakes' para gerar vídeos do ex-presidente Obama
Já é 'Deepfakes' para transformar os atores e atrizes de todos os filmes em Nicholas Cage
Já vem O primeiro caso de uso político de 'deepfakes' em áudio, imagem ou vídeo
Comentários
Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.