Descrição de chapéu The New York Times tecnologia

Abuso sexual infantil gerado por IA dispara, e denúncias sobrecarregam canais nos EUA

Com avanço da inteligência artificial, autoridades têm desafio de filtrar o que é fake e o que é real nas denúncias

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Cecilia Kang
Washington | The New York Times

Uma nova onda de material de abuso sexual infantil criado por inteligência artificial está ameaçando sobrecarregar as autoridades americanas, já limitadas por tecnologia e leis antiquadas, de acordo com um novo relatório divulgado na segunda-feira pelo Observatório da Internet da Universidade de Stanford.

No último ano, novas tecnologias de inteligência artificial tornaram mais fácil para criminosos criar imagens explícitas de crianças.

Agora, pesquisadores de Stanford estão alertando que o Centro Nacional de Crianças Desaparecidas e Exploradas, uma organização sem fins lucrativos que atua como agência coordenadora central e recebe a maioria de seus recursos do governo federal, não tem os recursos para combater a crescente ameaça.

A linha de denúncias da organização, criada em 1998, é o ponto central federal para todos os relatórios sobre material de abuso sexual infantil online e é usada pelas autoridades para investigar crimes. Mas muitas das dicas recebidas são incompletas ou cheias de imprecisões. Seu pequeno quadro de funcionários também tem lutado para acompanhar o volume.

Silhueta de um homem no centro da ilustração com equipamentos eletrônicos e efeitos visuais em volta dele.
Ilustração para reportagem sobre deepfake - TensorSpark/Adobe Stock

"Quase certamente nos próximos anos, a linha será inundada com conteúdo de IA altamente realista, o que tornará ainda mais difícil para as autoridades identificar crianças reais que precisam ser resgatadas", disse Shelby Grossman, uma das autoras do relatório.

O Centro Nacional de Crianças Desaparecidas e Exploradas está na linha de frente de uma nova batalha contra imagens sexualmente exploradoras criadas com IA, uma área emergente de crime ainda sendo delineada por legisladores e autoridades.

Em meio a uma epidemia de deepfakes de "nudes" gerados por IA circulando em escolas, alguns legisladores estão tomando medidas para garantir que tal conteúdo seja considerado ilegal.

Imagens de CSAM geradas por IA são ilegais se contiverem crianças reais ou se imagens de crianças reais forem usadas para treinar dados, dizem os pesquisadores

Mas aquelas feitas sinteticamente que não contêm imagens reais podem ser protegidas como liberdade de expressão, de acordo com um dos autores do relatório.

A revolta pública pela proliferação de imagens de abuso sexual online de crianças explodiu em uma audiência recente com os principais executivos da Meta, Snap, TikTok, Discord e X, que foram criticados pelos legisladores por não fazerem o suficiente para proteger crianças online.

O centro para crianças desaparecidas e exploradas, que recebe dicas de indivíduos e empresas como Facebook e Google, argumentou a favor de legislação para aumentar seu financiamento e dar-lhe acesso a mais tecnologia.

Pesquisadores de Stanford disseram que a organização forneceu acesso a entrevistas de funcionários e seus sistemas para o relatório para mostrar as vulnerabilidades dos sistemas que precisam ser atualizados.

"Ao longo dos anos, a complexidade dos relatórios e a gravidade dos crimes contra crianças continuam a evoluir", disse a organização em um comunicado. "Portanto, aproveitar soluções tecnológicas emergentes em todo o processo da Linha Cibernética leva a mais crianças sendo protegidas e os infratores sendo responsabilizados."

Os pesquisadores de Stanford descobriram que a organização precisava mudar a forma como sua linha de dicas funcionava para garantir que as autoridades pudessem determinar quais relatórios envolviam conteúdo gerado por IA, bem como garantir que as empresas que relatam material de abuso em suas plataformas preencham os formulários completamente.

Menos da metade de todos os relatórios feitos para a Linha Cibernética eram "acionáveis" em 2022, seja porque as empresas que relatavam o abuso não forneciam informações suficientes ou porque a imagem em uma dica se espalhava rapidamente online e era relatada muitas vezes. A linha de dicas tem uma opção para verificar se o conteúdo na dica é um meme potencial, mas muitos não a usam.

Em um único dia no início deste ano, um recorde de um milhão de relatórios de material de abuso sexual infantil inundou o ponto central federal. Por semanas, os investigadores trabalharam para responder ao pico incomum. Descobriu-se que muitos dos relatórios estavam relacionados a uma imagem em um meme que as pessoas estavam compartilhando em várias plataformas para expressar indignação, não intenção maliciosa. Mas ainda consumiu recursos significativos de investigação.

Essa tendência piorará à medida que o conteúdo gerado por IA se acelerar, disse Alex Stamos, um dos autores do relatório de Stanford.

"Um milhão de imagens idênticas já é difícil o suficiente, um milhão de imagens separadas criadas por A.I. os quebraria", disse o Sr. Stamos.

O centro para crianças desaparecidas e exploradas e seus contratados são restritos de usar provedores de computação em nuvem e são obrigados a armazenar imagens localmente em computadores. Essa exigência dificulta a construção e o uso do hardware especializado usado para criar e treinar modelos de A.I. para suas investigações, descobriram os pesquisadores.

A organização geralmente não possui a tecnologia necessária para usar amplamente o software de reconhecimento facial para identificar vítimas e infratores. Grande parte do processamento de relatórios ainda é manual.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.