'Deepfakes' com Bolsonaro, Regina e divas pop rendem sucesso, dinheiro e ameaças

Bruno Sartori viraliza nas redes sociais com vídeos que usam inteligência artificial para criar montagens ultrarrealistas

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo

Hoje é o Chapolin com o rosto de Jair Bolsonaro errando slogans e discursos da Presidência. Amanhã pode ser seu rosto e sua voz compondo um dos personagens de sua série favorita.

Na visão do mineiro Bruno Sartori, que foi apelidado pelo escritor Paulo Coelho de “bruxo dos vídeos”, essa situação se tornará comum num futuro breve. Segundo ele, as "deepfakes", vídeos que usam inteligência artificial para criar montagens ultrarreaistas, estarão cada vez mais inseridas no cotidiano das pessoas.

Sartori, de 30 anos, ganhou notoriedade depois que seu vídeo “Chapolin Bolsonaro”, viralizou nas redes sociais em maio do ano passado. Nele, o presidente da República aparece usando a clássica roupa do personagem e dizendo algumas das frases de seu discurso em Dallas, nos Estados Unidos, naquele mês.

“Um amigo viu e pediu para postar no Twitter. No dia seguinte, o vídeo tinha 2 milhões de visualizações e eu ganhei mais de mil seguidores”, diz Sartori.

A "deepfake", explica Sartori, é criada a partir de softwares que usam de sistemas de inteligência artificial especializados na construção de imagens e sons. É como se fosse um Photoshop dos vídeos. Para isso, bancos de dados sonoros e fotográficos são fornecidos ao equipamento, que passa então a identificar padrões e, assim, a reproduzir os traços.

“Quando precisamos fazer uma troca de rostos assim, a máquina precisa primeiramente aprender o funcionamento de cada um deles. É como aprender a falar”, compara.

A tecnologia usada pelo produtor de vídeos, que acumula mais de 300 mil seguidores no Instagram, tem duas redes neurais –uma para criar imagens e outra para discriminar essas imagens. A primeira analisa uma série de fotografias para elaborar uma fisionomia, que será enviada à segunda, responsável por verificar sua existência naquele banco de dados.

Embora também já seja possível fazer cópias ultrarrealistas de sons, Sartori diz que não usa essa técnica e sempre convida imitadores de vozes. “Se não, fica muito robótico”, justifica.

O vídeo que mais gostou de fazer, diz, foi a paródia "Bolsonaro Canta Xibom Bombom", por causa do trabalho de labialização, que é uma articulação labial completamente construída através de inteligência artificial.

"Tenho muito xodó pelos vídeos em que faço a labialização porque é um trabalho muito demorado, não mexo só no rosto, preciso mexer no corpo inteiro." O produtor diz ainda que essa técnica será muito usada futuramente no cinema e na televisão para criar dublagens mais realistas. "Veremos o Leonardo DiCaprio gesticulando em português. Isso poderá ajudar muitas pessoas surdas a fazer leitura labial", afirma.

Com uma lista de assuntos diversos e que cresce cada vez mais, o "deepfaker" –como ele próprio se define– já fez conteúdos que envolvem "Big Brother Brasil", Beyoncé, Katy Perry, Paulo Guedes, Sergio Moro, Regina Duarte, Felipe Neto e outros famosos.

A técnica de "deepfake", criada em 2017, no entanto, costuma causar polêmicas. O termo surgiu como nome de um dos usuários da rede social Reddit —Sartori afirma que não só a conheceu pelo site, mas também chegou a conversar com o usuário que deu nome à tecnologia.

“Todos nós [participantes do fórum] trocávamos experiências a respeito”, conta ele. “Mas eles usavam para pornografia. Acredito que eu fui a primeira pessoa a usar isso em paródias. Pensei que seria muito legal ver um cantor cantando com meu rosto.”

"A popularização desses vídeos é algo importante porque faz as pessoas saberem que vídeos falsos existem. É melhor que elas tenham contato com isso de uma forma engraçada, vendo o Lula de 'usurpadora' e o Bolsonaro de Anitta, do que descobrir isso em épocas de eleição."

Na tentativa de difamar políticos e celebridades, diversos conteúdos pornográficos e notícias falsas já foram publicados com o uso da técnica.

Um estudo publicado no ano passado pelo grupo de segurança online Deep Trace mostra que 96% dos vídeos de "deepfake" disponíveis na internet são pornográficos. Atrizes como Emma Watson e Gal Gadot, por exemplo, já tiveram seus rostos aplicados ao corpo de atrizes pornô.

Sartori diz que reconhece o perigo oferecido pela tecnologia e afirma que, por isso, nunca deu aulas ensinando seu uso. Além disso, afirma já ter recebido propostas para fazer vídeos falsos envolvendo escândalos políticos. "Já me ofereceram muito dinheiro, mas recusei", diz ele.

Segundo o "deepfaker", se esse tipo de conteúdo não estiver muito popularizado em 2022, ano eleitoral, "haverá muita desinformação que poderá mudar os rumos do Brasil".

Ele diz ainda que seus vídeos são charges modernas, e não conteúdos que tentam propagar notícias falsas. "Eu quero que isso ajude as pessoas a identificar um vídeo falso. Hoje conseguimos olhar para uma foto e perceber o uso de Photoshop, é a mesma lógica", afirma Sartori, que tem começado a trabalhar para agências de publicidade.

O mineiro, contudo, tem sido alvo de ameaças depois da publicação de seu vídeo "Bolsonaro Canta 'Florentina (Cloroquina)' – Tiririca", no qual Jair Bolsonaro diz não saber se cloroquina é eficaz no combate à Covid-19.

"Clonaram meu cartão de crédito e divulgaram meus dados pessoais na internet. Recebi muitas ameaças pelo WhatsApp, com áudios falando sobre estupro, tortura, morte", afirma Sartori, que denunciou as ameaças ao Ministério Público.

"Gente da direita e da esquerda veio se solidarizar comigo. As pessoas já estão estão sabendo das ameaças e eu não vou abaixar a cabeça​", diz.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.