Siga a folha

Ferramentas automatizadas identificam conteúdo criminoso nas redes sociais

Softwares de grandes plataformas varrem internet em busca de imagens de exploração sexual infantil

Continue lendo com acesso ilimitado.
Aproveite esta oferta especial:

Oferta Exclusiva

6 meses por R$ 1,90/mês

SOMENTE ESSA SEMANA

ASSINE A FOLHA

Cancele quando quiser

Notícias no momento em que acontecem, newsletters exclusivas e mais de 200 colunas e blogs.
Apoie o jornalismo profissional.

São Paulo

Não é só na “deep web” que imagens e vídeos de exploração sexual infantil são compartilhados. As redes sociais e aplicativos de troca de mensagens são usados para enviar esse tipo de material, ainda que todas plataformas proíbam tal conteúdo e monitorem as publicações dos usuários.

Com o enorme volume de material —só no Facebook são 317 mil novas postagens a cada minuto, enquanto o Twitter tem 6.000 novos tuítes por segundo—, as plataformas usam ferramentas automatizadas de inteligência artificial, que permitem treinar um sistema para identificar e aprender novos padrões.

Essas empresas e organizações que defendem os direitos humanos usam tais ferramentas para vasculhar a internet em busca de conteúdo de exploração sexual infantil.

Uma das ferramentas pioneiras foi a PhotoDNA, criada pela Microsoft em 2009, e usada por Facebook, Instagram, WhatsApp e Twitter. Ela capta o equivalente à impressão digital de fotos e vídeos já identificados como de exploração sexual infantil e compartilha essa informação com todos que a utilizam.

Um dos grandes problemas no combate à divulgação desse tipo de conteúdo é que apagá-lo não garante sua exclusão definitiva da rede. Quem detém os arquivos pode adicioná-los à internet outra vez.

O Google usa ferramentas semelhantes, como o CSAI Match, desenvolvido pelo YouTube —que pertence ao grupo. A CSAI também é utilizada pelo Tumblr e pelo fórum virtual Reddit.

A empresa diz ainda que utiliza uma ferramenta própria que usa inteligência artificial para ajudar organizações de direitos humanos a priorizarem o material inédito de exploração sexual infantil que precisa ser revisado por outras pessoas. Chamada API Content Safety, ela é disponibilizada gratuitamente para ONGs e empresas.

Esses softwares também evitam que funcionários que fazem a triagem do conteúdo suspeito precisem ver tudo o que é postado.

A presença humana, porém, é importante para diferenciar algumas situações. Por exemplo, se uma mãe postar uma foto da filha pequena tomando banho, esse conteúdo viola as regras do Facebook, que proíbem nudez infantil. A imagem deverá ser derrubada, mas a mãe não precisa ser banida da rede social, porque sua intenção não era compartilhar imagem sexual.

Já se esse tipo de imagem é compartilhada por um perfil com fotos de várias outras crianças em situações semelhantes, o usuário é banido.

Essas ferramentas vasculham também o conteúdo postado na forma de stories, as publicações que somem em 24 horas.

As ferramentas automatizadas são responsáveis por encontrar a maior parte dos casos de exploração sexual infantil nas redes. Segundo relatório de transparência do Twitter, entre janeiro e junho de 2019, 91% das 244 mil contas suspensas no período por esse motivo foram pegas com esses softwares.

Quando as plataformas encontram material de exploração sexual infantil, reportam esse conteúdo para o NCMEC (Centro Nacional de Crianças Desaparecidas e Exploradas, na sigla em inglês), ONG norte-americana.

Caso haja envolvimento de brasileiros, o centro avisa as autoridades do país.

Não faltam ferramentas para coibir o compartilhamento de conteúdo de exploração sexual infantil, mas, segundo Thiago Tavares, presidente da SaferNet, organização de defesa dos direitos humanos na internet, o grau de proatividade varia entre as redes.

“Existem empresas que têm estruturas gigantescas e investem bilhões de dólares para detectar esses casos, já outras não enxergam o assunto como prioridade”, afirma.

O Twitter é um exemplo da segunda situação, segundo Tavares. “Eles têm uma estrutura reduzida, desproporcional ao problema a ser enfrentado, então a gente encontra mais desse tipo de material por lá.”

Em 2019, o NCMEC recebeu 16,8 milhões de relatórios enviados por empresas de tecnologia, e 360 mil foram encaminhados para a Polícia Federal brasileira. Desse total de relatórios, 15,8 milhões são apenas do grupo Facebook, que inclui Instagram e o WhatsApp.

Segundo Tavares, isso se deve à quantidade de usuários de suas redes —2,4 bilhões no Facebook, 2 bilhões no WhatsApp e 1 bilhão no Instagram— e também do esforço da empresa em combater a exploração sexual infantil.

Já o Google, dono do YouTube, enviou cerca de 450 mil relatórios ao NCMEC. Tavares acredita que essa diferença é causada pela natureza da rede. “O YouTube é uma plataforma de imagens em movimento, e 90% dos relatórios que são enviados dizem respeito a imagens estáticas.”

Para o presidente da SaferNet, o TikTok, rede social chinesa de vídeos curtos que faz sucesso entre crianças e adolescentes, é uma preocupação. A rede tem cerca de 800 milhões de usuários ativos.

“Já recebemos centenas de denúncias sobre conteúdo no aplicativo, mas não conseguimos ter contato com eles.”

Segundo o NCMEC, o TikTok enviou apenas 596 relatórios em 2019. A plataforma afirma proibir estritamente conteúdo sexualmente explícito ou que explore sexualmente menores, remover conteúdo inapropriado e encerrar contas.

Usuários que tiverem contato com imagens de exploração sexual em suas redes sociais podem denunciar o conteúdo nas próprias plataformas. Também é possível fazer uma denúncia à SaferNet, em denuncie.org.br. Só é preciso enviar o endereço da página.

Receba notícias da Folha

Cadastre-se e escolha quais newsletters gostaria de receber

Ativar newsletters

Relacionadas