Descrição de chapéu tecnologia

OpenAI lança detector de 'deepfakes' para pesquisadores em desinformação

Startup reconhece que ferramenta é pequena parte para combater deepfakes no futuro próximo

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

The New York Times

À medida que especialistas alertam que imagens, áudio e vídeo gerados por inteligência artificial poderiam influenciar as eleições presidenciais dos Estados Unidos deste ano, a OpenAI está lançando uma ferramenta projetada para detectar conteúdo criado por seu próprio gerador de imagens popular, o DALL-E.

Mas a startup de IA reconhece que a ferramenta é apenas uma pequena parte do que será necessário para combater os chamados deepfakes nos próximos meses e anos.

Nesta terça-feira (7), a OpenAI disse que compartilharia seu novo detector de deepfakes com um pequeno grupo de pesquisadores de desinformação para que pudessem testar a ferramenta em situações do mundo real e ajudar a identificar maneiras de aprimorá-la.

Logo da OpenAI próximo de uma placa-mãe.
Logo da OpenAI próximo de uma placa-mãe. - Dado Ruvic/Reuters

"Isto é para iniciar novas pesquisas", disse Sandhini Agarwal, uma pesquisadora da OpenAI que se concentra em segurança e política. "Isso é realmente necessário."

A OpenAI disse que seu novo detector poderia identificar corretamente 98,8% das imagens criadas pelo DALL-E 3, versão mais recente de seu gerador de imagens. Mas a empresa disse que a ferramenta não foi projetada para detectar imagens produzidas por outros geradores populares, como Midjourney e Stability.

Esse tipo de detector de deepfakes é baseado em probabilidades, ele nunca pode ser perfeito. Assim como muitas outras empresas, organizações sem fins lucrativos e laboratórios acadêmicos, a OpenAI está trabalhando para combater o problema de outras maneiras.

Assim como as gigantes de tecnologia, Google e Meta, a empresa está se juntando ao comitê gestor da C2PA (Coalizão para Procedência e Autenticidade de Conteúdo, em livre tradução).

Isso é parte do desenvolvimento de credenciais para conteúdo digital. A padronização do C2PA é uma espécie de "rótulo nutricional" para imagens, vídeos, áudio e outros arquivos que mostra quando e como foram produzidos ou alterados —incluindo com IA.

A OpenAI também disse que está desenvolvendo maneiras de "marcar" sons gerados por IA para que possam ser facilmente identificados no momento. A empresa espera tornar essas marcas d'água difíceis de remover.

Ancorada por empresas como OpenAI, Google e Meta, a indústria de IA está enfrentando uma pressão crescente para prestar contas pelo conteúdo que seus produtos geram.

Especialistas estão pedindo à indústria de IA evitem que usuários gerem material enganoso e malicioso —e ofereçam maneiras de rastrear sua origem e distribuição.

Em um ano repleto de importantes eleições ao redor do mundo, as demandas por formas de monitorar a linhagem do conteúdo de IA estão se tornando mais desesperadas. Nos últimos meses, áudio e imagens já afetaram campanhas políticas e votações em lugares como Eslováquia, Taiwan e Índia.

O novo detector de deepfakes da OpenAI pode ajudar a conter o problema, mas não o resolverá. Como Agarwal colocou: "na luta contra os deepfakes, não há bala de prata".

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.