Vídeos alterados são maior ameaça à segurança digital em 2020, aponta relatório

Técnica conhecida como deep fake pode ser usada tanto para manipular eleições quanto para roubar dinheiro

São Paulo

As eleições americanas, as ações de grandes empresas e até o saque do FGTS no Brasil: tudo isso pode ser alvo, em 2020, de uma técnica recente que combina notícias falsas, produção de vídeos e inteligência artificial

Os chamados deep fakes são uma das maiores ameaças à segurança digital em todo o mundo no próximo ano, de acordo com relatório da empresa americana de cibersegurança McAfee divulgado nesta quinta-feira (5). 

Vídeo criado pelo artista britânico Bill Posters manipula fala de Mark Zuckerberg, do Facebook, usando inteligência artificial
Vídeo criado pelo artista britânico Bill Posters manipula fala de Mark Zuckerberg, do Facebook, usando inteligência artificial - Reprodução

A técnica consiste em utilizar inteligência artificial e machine learning (aprendizado de máquina) para alterar um vídeo, fazendo com que uma pessoa diga algo que ela não disse. A alteração é quase imperceptível a olho nu.

“Deep fakes podem se transformar em armas para intensificar a guerra de informação”, afirma no relatório o diretor-chefe de tecnologia da empresa, Steve Grobman. 

Segundo ele, a prática deve aumentar ainda mais a quantidade de notícias falsas e de desinformação na internet.

E, embora seja um problema global, a questão deve se intensificar durante períodos eleitorais, diz à Folha o porta-voz da McAfee no Brasil, Flávio Elizalde —os Estados Unidos vão escolher seu novo presidente em novembro de 2020, e o Brasil terá pleitos municipais em outubro. 

“Se pensarmos em Estados-nações tentando manipular eleições, usar deep fakes para manipular a audiência faz todo o sentido. Adversários vão tentar criar rachaduras e divisões na sociedade”, diz Grobman.  

Para chegar a essa conclusão, a McAfee usou os dados de mais de 500 milhões de computadores pelo mundo que utilizam seus programas, analisou as ameaças mais comuns na internet e pesquisou as tendências debatidas em fóruns e outros locais da rede. 

O maior problema, de acordo com os técnicos que participaram do estudo, é que está cada vez mais fácil e barato criar deep fakes. 

Se antes era preciso de conhecimento técnico específico, atualmente já existem sites que aplicam a estratégia de maneira automática —basta que o autor coloque o vídeo e o áudio que quer ver combinados, e o deep fake é gerado. 

Assim, afirma o relatório, centenas de milhares de criminosos devem ter acesso no próximo ano a essa técnica no mundo.

Vídeos falsos podem ser criados, por exemplo, para deturpar declarações de executivos de grandes companhias, mexendo com o preço das ações.

Também deve se tornar cada vez mais comum que pessoas sejam alvos de golpes que usam a técnica —já existem casos de criminosos que criaram notícias falsas sobre o resgate do FGTS para roubar o dinheiro do fundo, por exemplo. 

A isso se soma mais uma dificuldade: imagens geradas a partir do uso cada vez mais comuns de reconhecimento facial podem ser utilizadas para aprimorar os vídeos falsos. 

Para combater o problema, diz Elizalde, não adianta recorrer a programas específicos ou especialistas na área.

A recomendação dele é bastante simples: não se pode acreditar em tudo que se vê na internet. “Isso não tem nada a ver com segurança digital, tem a ver com bom senso.”

Tópicos relacionados

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.