Nikon, Sony e Canon correm para diferenciar fotos de imagens geradas por IA

Assinatura digital aliada a sistema de verificação instantânea é primeira tentativa de fabricantes de câmeras

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo

As fabricantes de câmeras Nikon, Sony e Canon correm para incrementar suas máquinas com um sistema que marca as fotografias com um selo digital. O objetivo da tecnologia é diferenciar as fotos das imagens geradas por inteligência artificial, de acordo com informações do jornal japonês Nikkei.

As empresas correm para manter sua credibilidade diante do avanço das plataformas de inteligência artificial geradoras de imagens. Já viralizaram fotos falsas —porém, realistas— de papa Francisco, Elon Musk e Donald Trump, além de vídeo artificial com o apresentador do Jornal Nacional, da TV Globo, William Bonner.

Essa tecnologia ficou popular com o lançamento em abril de 2022 do Dall-E 2, da OpenAI (mesma criadora do ChatGPT). Desde então, outras plataformas similares ganham projeção, e as artes geradas, verossimilhança. Um modelo de inteligência artificial desenvolvido por pesquisadores da Universidade de Tsinghua, da China, é capaz de produzir 700 mil fakes por dia.

Aplicativo da Canon mostra se uma imagem foi gerada por inteligência artificial ou editada com auxílio de tecnologia. Foto acima tem três pessoas. Versão abaixo tem duas, a primeira à esquerda foi apagada. À esquerda, as informações do artigo digital mostram que a foto está íntegra. À direita, janela aponta a alteração na imagem.
Aplicativo da Canon mostra se uma imagem foi gerada por inteligência artificial ou editada com auxílio de tecnologia - Divulgação/Canon

Os primeiros esforços começam em parcerias com jornalistas. Uma aliança global de veículos de imprensa, empresas de tecnologia e fabricantes de câmeras desenvolveu uma ferramenta capaz de fazer checagens online, chamada de Verify. Se houver selo de autenticação, a plataforma exibe data, geolocalização entre outros metadados.

Esse padrão será adotado, em comum acordo, entre Nikon, Sony e Canon. As empresas japonesas controlam cerca de 90% do mercado global de máquinas fotográficas.

Além de imagens completamente falsas, o sistema também aponta fotos editadas como não autênticas. A mensagem padrão para imagens criadas ou alteradas é "No Content Credentials" (algo como sem credenciais de conteúdo, em português).

A Canon trabalha para adotar a tecnologia em escala de mercado ainda em 2024. A fabricante planeja também autenticar vídeos

A empresa já lançou um aplicativo de gestão de imagens que permite verificar se o arquivo em análise foi produzido por humanos.

A fabricante de câmeras trabalha em parceria com a agência Reuters e o Starling Lab for Data Integrity, laboratório cofundado pelas universidades de Stanford e Carolina do Sul dedicado a verificar a integridade de informações que circulam na internet.

A Nikon, por sua vez, começará a acrescentar a tecnologia de autenticação às suas câmeras topo de linha, com o objetivo de atrair fotojornalistas e outros profissionais. O selo de autenticidade será resistente a interferências externas.

A Sony planeja adotar a marca de autenticação a partir de abril também em seu equipamento topo de linha. A empresa disponibilizará um pacote de atualização para adequar as máquinas já em circulação.

A fabricante de câmeras fotográficas tem testado junto com a agência de notícias Associated Press um sistema de verificação automática das imagens lançadas em um servidor. A tecnologia também deve funcionar em vídeos.

Do lado dos desenvolvedores de IA, o Google lançou em agosto uma ferramenta que acrescenta marcas d’água invisíveis às imagens geradas com inteligência artificial. As imagens geradas pelo Dall-E da OpenAI também vêm com selos para indicar a origem artificial.

Ainda assim, existem diversos modelos de IA geradores de imagem de código aberto, como o Stable Diffusion, disponíveis na internet. Isso permite que programadores criem versões próprias e descartem os selos de autenticação.

Em 2022, a Intel desenvolveu uma plataforma capaz de determinar se uma imagem é autêntica a partir de análise de alterações na cor da pele decorrentes do fluxo de sangue. A tendência, porém, é que as imagens criadas por inteligência artificial se tornem mais realistas e, consequentemente, difíceis de identificar.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.