Descrição de chapéu

Pornô de vingança com 'deepfakes': por que precisamos nos preocupar com isso

Em meio a vácuo legal e com aplicativos acessíveis, vídeos falsos com celebridades e políticos se propagam

Conteúdo restrito a assinantes e cadastrados Você atingiu o limite de
por mês.

Tenha acesso ilimitado: Assine ou Já é assinante? Faça login

BBC News Brasil

Vídeos chamados de "deepfake" são produzidos com programas de inteligência artificial que criam versões computadorizadas do rosto de alguém e são capazes de manipular sua fala –literalmente colocar “palavras na boca" desse alguém– ou seu contexto, por exemplo, adicionando a cabeça de uma atriz de Hollywood ao corpo de uma estrela pornô.

Já existem falsos vídeos do ex-presidente americano Barack Obama e falsos pornôs com atrizes como Emma Watson. Diversos desses vídeos têm sido tirados de circulação de sites americanos como o Gfycat.

Até pessoas comuns podem ser alvo: especialistas temem que a prática do “pornô da vingança” (quando uma pessoa divulga um vídeo íntimo do ex-namorado, por exemplo) ganhe novo impulso com a possibilidade de manipulação de imagens.

Captura de tela do FakeApp, programa que permite adulterar imagens de forma realística - Handout via The New York Times

Outro perigo, potencialmente ainda mais danoso e de impactos globais, é a adulteração de falas de políticos em campanhas eleitorais.

A criação desses vídeos tornou-se mais comum e fácil depois do lançamento de uma ferramenta grátis, no início deste ano, que tornou a troca de rostos um processo relativamente simples. O desenvolvedor do FakeApp diz que ele foi baixado mais de cem mil vezes.

Seu funcionamento se baseia em um algoritmo que cria uma versão computadorizada do rosto de uma celebridade ao analisar centenas de fotos desta pessoa e também um vídeo de quem terá seu rosto substituído.

Os resultados variam bastante em termos de qualidade. Mas, em alguns casos, quando as duas pessoas envolvidas na troca são parecidas fisicamente, o produto final chega a ser convincente.

Também preocupa o fato de as legislações dos países não conseguirem acompanhar a tecnologia, criando um vácuo legal que dificulta a punição de criadores de “deepfakes”.

Como identificar?

Para tentar identificar possíveis “deepfakes”, uma dica é prestar atenção à qualidade dos vídeos e na maneira como os rostos se movem.

Em vídeos "fakes" de celebridades, os rostos digitalmente "transplantados" tinham resolução mediana, oscilações, tremores e flutuações.

Em termos técnicos, também há diferenças entre os “deepfakes” e os vídeos verdadeiros, explicou ao pesquisador de computação gráfica Christian Riess, da Universidade Friedrich-Alexander Erlangen-Nürnberg, na Alemanha.

"Um vídeo editado tem na área do rosto uma sobreposição de gráficos computacionais. É isso que o algoritmo detecta", explica Riess.

Ou seja, algoritmos automatizados inteligentes deixam vestígios. O grupo de Riess criou o software FaceForensics, que almeja justamente identificar esses traços.

Mas, segundo o pesquisador, não demorará até que os programas de "deepfakes" evoluam a ponto de edições serem imperceptíveis ao olho humano. Logo, dependeremos de softwares para autenticar vídeos suspeitos.

Em assuntos mais sérios, como edições em vídeos de políticos, é preciso sempre analisar o contexto.

"Em qual veículo esse vídeo aparece? Você confia na fonte? Alguém a checou? Quem se beneficiaria desse vídeo? Essas perguntas clássicas de jornalismo e checagem de fatos devem ser aplicadas", orienta o pesquisador.

Relacionadas