Ronaldo Lemos

Advogado, diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro.

Salvar artigos

Recurso exclusivo para assinantes

assine ou faça login

Ronaldo Lemos

Como combater deepfakes?

Vídeos ainda são evidências vistas com os próprios olhos

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

O fenômeno das “deepfakes” tornou-se uma questão geopolítica. Exemplo disso é o recente artigo sobre o tema na revista Foreign Affairs. 

O termo “deepfake” refere-se à possibilidade de usar inteligência artificial e outras ferramentas para criar imagens ou vozes falsas, mas incrivelmente parecidas com a realidade. Por esses recursos dá para gerar uma foto, um áudio ou um vídeo de situação que nunca existiu. Por exemplo, imagens de um político ou celebridade que não aconteceram de fato.

Hoje as pessoas acreditam intuitivamente naquilo que veem, especialmente vídeos. Textos e fotos geram menos confiança, porque cada vez mais gente sabe que podem ser manipulados. No entanto, vídeos ainda são evidências vistas “com os próprios olhos”.

Um exemplo familiar é o vídeo que circulou nas eleições para o governo de São Paulo, que trazia imagens atribuídas ao futuro governador em situação íntima. 

De um lado, houve quem afirmasse que o vídeo era claramente real. De outro lado, quem dissesse que era claramente montagem. Em um mundo no qual as “deepfakes” existem, é difícil estabelecer objetivamente a verdade. A mera existência das “deepfakes” é suficiente para embaralhar os limites do falso e do verdadeiro.

No artigo da Foreign Affairs, há três estratégias propostas para combater as “deepfakes”. Duas já foram discutidas aqui na coluna, e uma é novidade. 

A primeira é utilizar a própria inteligência artificial para analisar “deepfake” e apontar fraudes. 

O problema dessa estratégia é que, ao treinar uma inteligência artificial para identificar fraudes, ela também se torna capaz de aperfeiçoar as falsificações. O remédio vira veneno. Quanto melhor o detetive, mais astuto se torna o ladrão.

A segunda estratégia é criar uma espécie de “certificado de realidade” usando blockchain. Os fabricantes de câmeras e equipamentos de áudio seriam obrigados a certificar imagens e sons captados diretamente da realidade com blockchain. 

Se uma imagem sofre alguma alteração, perde então o “certificado”, indicando que pode ter sido manipulada. Essa solução é imperfeita. Nenhum fabricante está disposto a fazer isso até o momento.

Seria também possível forjar certificados falsos, abrindo margens para fraudes ainda mais 
difíceis de serem apuradas.

Por fim, a estratégia nova está sendo chamada de “serviços de certificação de álibi”. A proposta é surpreendente. Por ela, qualquer pessoa pública, como político ou celebridade, teria de gravar e certificar 100% da sua vida detalhadamente. 

Em outras palavras, gravar toda e qualquer palavra que pronuncia, registrar todos os lugares em que esteve, as pessoas com que se encontrou etc. Tudo seria então autenticado em tempo real por um desses serviços de criação de “álibis”. 

Se alguém fizesse uma “deepfake” sobre a pessoa, ela seria então capaz de provar com base em seus registros que não falou aquilo, não se encontrou com aquela pessoa, não estava naquele lugar naquela hora. Seria uma espécie de autovigilância preventiva.

Parece loucura, mas, no mundo em que estamos vivendo hoje, não seria surpresa que pessoas públicas, como presidentes ou juízes da Supremas Cortes, adotassem esse tipo de estratégia como medida preventiva.

Reader

Já era Terrorismo apenas analógico

Já é Terrorismo digital, nos moldes do Estado Islâmico

Já vem Terrorismo estocástico (demonizar publicamente pessoa ou grupo para incitar ato de violência aleatório, mas estatisticamente provável, contra ele)

LINK PRESENTE: Gostou deste texto? Assinante pode liberar cinco acessos gratuitos de qualquer link por dia. Basta clicar no F azul abaixo.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.