Ferramentas automatizadas identificam conteúdo criminoso nas redes sociais

Softwares de grandes plataformas varrem internet em busca de imagens de exploração sexual infantil

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo

Não é só na “deep web” que imagens e vídeos de exploração sexual infantil são compartilhados. As redes sociais e aplicativos de troca de mensagens são usados para enviar esse tipo de material, ainda que todas plataformas proíbam tal conteúdo e monitorem as publicações dos usuários.

Com o enorme volume de material —só no Facebook são 317 mil novas postagens a cada minuto, enquanto o Twitter tem 6.000 novos tuítes por segundo—, as plataformas usam ferramentas automatizadas de inteligência artificial, que permitem treinar um sistema para identificar e aprender novos padrões.

Essas empresas e organizações que defendem os direitos humanos usam tais ferramentas para vasculhar a internet em busca de conteúdo de exploração sexual infantil.

Uma das ferramentas pioneiras foi a PhotoDNA, criada pela Microsoft em 2009, e usada por Facebook, Instagram, WhatsApp e Twitter. Ela capta o equivalente à impressão digital de fotos e vídeos já identificados como de exploração sexual infantil e compartilha essa informação com todos que a utilizam.

Um dos grandes problemas no combate à divulgação desse tipo de conteúdo é que apagá-lo não garante sua exclusão definitiva da rede. Quem detém os arquivos pode adicioná-los à internet outra vez.

O Google usa ferramentas semelhantes, como o CSAI Match, desenvolvido pelo YouTube —que pertence ao grupo. A CSAI também é utilizada pelo Tumblr e pelo fórum virtual Reddit.

A empresa diz ainda que utiliza uma ferramenta própria que usa inteligência artificial para ajudar organizações de direitos humanos a priorizarem o material inédito de exploração sexual infantil que precisa ser revisado por outras pessoas. Chamada API Content Safety, ela é disponibilizada gratuitamente para ONGs e empresas.

Esses softwares também evitam que funcionários que fazem a triagem do conteúdo suspeito precisem ver tudo o que é postado.

A presença humana, porém, é importante para diferenciar algumas situações. Por exemplo, se uma mãe postar uma foto da filha pequena tomando banho, esse conteúdo viola as regras do Facebook, que proíbem nudez infantil. A imagem deverá ser derrubada, mas a mãe não precisa ser banida da rede social, porque sua intenção não era compartilhar imagem sexual.

Já se esse tipo de imagem é compartilhada por um perfil com fotos de várias outras crianças em situações semelhantes, o usuário é banido.

Essas ferramentas vasculham também o conteúdo postado na forma de stories, as publicações que somem em 24 horas.

As ferramentas automatizadas são responsáveis por encontrar a maior parte dos casos de exploração sexual infantil nas redes. Segundo relatório de transparência do Twitter, entre janeiro e junho de 2019, 91% das 244 mil contas suspensas no período por esse motivo foram pegas com esses softwares.

Ilustração de homem sentado no chão, com criança em seu colo e um computador na frente; os dois mexem em celulares
Ilustração: Luiza Pannunzio

Quando as plataformas encontram material de exploração sexual infantil, reportam esse conteúdo para o NCMEC (Centro Nacional de Crianças Desaparecidas e Exploradas, na sigla em inglês), ONG norte-americana.

Caso haja envolvimento de brasileiros, o centro avisa as autoridades do país.

Não faltam ferramentas para coibir o compartilhamento de conteúdo de exploração sexual infantil, mas, segundo Thiago Tavares, presidente da SaferNet, organização de defesa dos direitos humanos na internet, o grau de proatividade varia entre as redes.

“Existem empresas que têm estruturas gigantescas e investem bilhões de dólares para detectar esses casos, já outras não enxergam o assunto como prioridade”, afirma.

O Twitter é um exemplo da segunda situação, segundo Tavares. “Eles têm uma estrutura reduzida, desproporcional ao problema a ser enfrentado, então a gente encontra mais desse tipo de material por lá.”

Em 2019, o NCMEC recebeu 16,8 milhões de relatórios enviados por empresas de tecnologia, e 360 mil foram encaminhados para a Polícia Federal brasileira. Desse total de relatórios, 15,8 milhões são apenas do grupo Facebook, que inclui Instagram e o WhatsApp.

Segundo Tavares, isso se deve à quantidade de usuários de suas redes —2,4 bilhões no Facebook, 2 bilhões no WhatsApp e 1 bilhão no Instagram— e também do esforço da empresa em combater a exploração sexual infantil.

Já o Google, dono do YouTube, enviou cerca de 450 mil relatórios ao NCMEC. Tavares acredita que essa diferença é causada pela natureza da rede. “O YouTube é uma plataforma de imagens em movimento, e 90% dos relatórios que são enviados dizem respeito a imagens estáticas.”

Para o presidente da SaferNet, o TikTok, rede social chinesa de vídeos curtos que faz sucesso entre crianças e adolescentes, é uma preocupação. A rede tem cerca de 800 milhões de usuários ativos.

“Já recebemos centenas de denúncias sobre conteúdo no aplicativo, mas não conseguimos ter contato com eles.”

Segundo o NCMEC, o TikTok enviou apenas 596 relatórios em 2019. A plataforma afirma proibir estritamente conteúdo sexualmente explícito ou que explore sexualmente menores, remover conteúdo inapropriado e encerrar contas.

Usuários que tiverem contato com imagens de exploração sexual em suas redes sociais podem denunciar o conteúdo nas próprias plataformas. Também é possível fazer uma denúncia à SaferNet, em denuncie.org.br. Só é preciso enviar o endereço da página.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.