À medida que especialistas alertam que imagens, áudio e vídeo gerados por inteligência artificial poderiam influenciar as eleições presidenciais dos Estados Unidos deste ano, a OpenAI está lançando uma ferramenta projetada para detectar conteúdo criado por seu próprio gerador de imagens popular, o DALL-E.
Mas a startup de IA reconhece que a ferramenta é apenas uma pequena parte do que será necessário para combater os chamados deepfakes nos próximos meses e anos.
Nesta terça-feira (7), a OpenAI disse que compartilharia seu novo detector de deepfakes com um pequeno grupo de pesquisadores de desinformação para que pudessem testar a ferramenta em situações do mundo real e ajudar a identificar maneiras de aprimorá-la.
"Isto é para iniciar novas pesquisas", disse Sandhini Agarwal, uma pesquisadora da OpenAI que se concentra em segurança e política. "Isso é realmente necessário."
A OpenAI disse que seu novo detector poderia identificar corretamente 98,8% das imagens criadas pelo DALL-E 3, versão mais recente de seu gerador de imagens. Mas a empresa disse que a ferramenta não foi projetada para detectar imagens produzidas por outros geradores populares, como Midjourney e Stability.
Esse tipo de detector de deepfakes é baseado em probabilidades, ele nunca pode ser perfeito. Assim como muitas outras empresas, organizações sem fins lucrativos e laboratórios acadêmicos, a OpenAI está trabalhando para combater o problema de outras maneiras.
Assim como as gigantes de tecnologia, Google e Meta, a empresa está se juntando ao comitê gestor da C2PA (Coalizão para Procedência e Autenticidade de Conteúdo, em livre tradução).
Isso é parte do desenvolvimento de credenciais para conteúdo digital. A padronização do C2PA é uma espécie de "rótulo nutricional" para imagens, vídeos, áudio e outros arquivos que mostra quando e como foram produzidos ou alterados —incluindo com IA.
A OpenAI também disse que está desenvolvendo maneiras de "marcar" sons gerados por IA para que possam ser facilmente identificados no momento. A empresa espera tornar essas marcas d'água difíceis de remover.
Ancorada por empresas como OpenAI, Google e Meta, a indústria de IA está enfrentando uma pressão crescente para prestar contas pelo conteúdo que seus produtos geram.
Especialistas estão pedindo à indústria de IA evitem que usuários gerem material enganoso e malicioso —e ofereçam maneiras de rastrear sua origem e distribuição.
Em um ano repleto de importantes eleições ao redor do mundo, as demandas por formas de monitorar a linhagem do conteúdo de IA estão se tornando mais desesperadas. Nos últimos meses, áudio e imagens já afetaram campanhas políticas e votações em lugares como Eslováquia, Taiwan e Índia.
O novo detector de deepfakes da OpenAI pode ajudar a conter o problema, mas não o resolverá. Como Agarwal colocou: "na luta contra os deepfakes, não há bala de prata".
Comentários
Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.