Ronaldo Lemos

Advogado, diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro.

Salvar artigos

Recurso exclusivo para assinantes

assine ou faça login

Ronaldo Lemos

O que fazer se fizerem uma deepfake com você?

É possível produzir material pornográfico falso em menos de cinco minutos e causar traumas irreversíveis

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Na semana passada, o mundo acompanhou atordoado a viralização de imagens pornográficas falsas da cantora Taylor Swift. Essas deepfakes foram espalhadas no Twitter (X) e rapidamente alcançaram milhões de visualizações. As plataformas agiram rápido para remover boa parte das imagens e tornaram o nome da cantora impossível de ser buscado por algumas horas. Mesmo assim o estrago foi feito.

Se isso pode acontecer com Swift, o que dizer de cada um de nós? A cantora é a maior celebridade do momento. Faturou US$ 2 bilhões (cerca de R$ 9,9 bilhões) no ano passado. Tem advogados e gestores de imagem à sua disposição. Mesmo assim, não conseguiu conter a viralização dos deepfakes.

Golpistas simulam publicação do blogueiro Leo Dias com deepfake do atacante Neymar para divulgar o jogo falso Subway Money
Golpistas simulam publicação do blogueiro Leo Dias com deepfake do atacante Neymar para divulgar o jogo falso Subway Money - Reprodução/Facebook

O que fazer se algo assim acontecer com você, no Brasil? Primeiro, vale lembrar que fazer deepfakes pornográficos hoje é simples. Há vários aplicativos que geram imagens de nudez com uma simples foto da pessoa. Outros permitem trocar o rosto em uma cena pornográfica, inserindo o da vítima.

Se algo assim acontecer, infelizmente caberá à vítima tomar as providências para conter os danos. A primeira é documentar o crime. Obter registros das imagens divulgadas, das plataformas onde estão, dos endereços e perfis que estão divulgando.

Feito isso, é fundamental notificar as plataformas imediatamente sobre o ocorrido. Graças ao Marco Civil da Internet existe um artigo na lei que obriga as plataformas a removerem imagens e vídeos com cenas de nudez e atos sexuais divulgadas sem autorização. Isso fez com que as plataformas criassem um canal de denúncias permanente para esse tipo de conteúdo. A vítima pode se valer desse canal para pedir a remoção imediata da deepfake. O link pode ser encontrado na Central de Ajuda do Facebook e na página "remover informações" no caso do Google.

Outra medida importante é fazer uma notícia-crime (boletim de ocorrência). Caso exista uma delegacia de crimes cibernéticos próxima à vítima, vale fazer lá (atualmente há delegacias desse tipo na maioria dos estados). Se não houver, procure uma delegacia normal (ou faça o boletim online, para fins de preservação de direitos).

A vítima pode então tomar medidas judiciais contra quem disseminou as imagens e contra as plataformas, se não tiverem removido as imagens prontamente após a notificação. Também com base no Marco Civil, é possível obter os registros de conexão dos divulgadores, o que ajuda a identificar quem está por trás do crime, mesmo se a conta for anônima ou falsa.

Se a vítima for adulta, a pena para quem divulga foto ou vídeo de pornografia sem o consentimento é de 1 a 5 anos de prisão. Se a vítima for criança ou adolescente, pelo ECA, quem divulga está sujeito a pena de reclusão de 3 a 6 anos. Se as deepfakes ficarem caracterizados também como "cyberbullying", há penas adicionais de 2 a 4 anos de prisão.

Vale notar que a lei não diferencia se a cena é real ou não. Muitos advogados (incluindo este colunista) defendem que o texto atual já se aplica às deepfakes.

Infelizmente, a maior parte das deepfakes pornográficas hoje são feitas na escola envolvendo menores. São colegas querendo zoar alguém, em geral mulheres. Por essa razão, é fundamental que os pais e responsáveis conversem e eduquem seus filhos sobre o tema. Fazer um deep fake pornográfico pode levar menos de 5 minutos. Uma gota comparada ao oceano de danos e penas que pode causar.

Já era – geração 9-9-6 na China (trabalhar das 9 da manhã às 9 da noite 6 dias por semana)

Já é – geração 躺平 (tang ping –ficar deitado) na China, que se recusa a trabalhar

Já vem – geração 佛系 (fo xi) na China, que aspira a uma vida simples como Buda

Erramos: o texto foi alterado

Versão anterior desta coluna afirmava, incorretamente, que US$ 2 bilhões equivaliam a R$ 1,27 bilhão. A conversão foi corrigida.

LINK PRESENTE: Gostou deste texto? Assinante pode liberar cinco acessos gratuitos de qualquer link por dia. Basta clicar no F azul abaixo.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.