Não é só na “deep web” que imagens e vídeos de exploração sexual infantil são compartilhados. As redes sociais e aplicativos de troca de mensagens são usados para enviar esse tipo de material, ainda que todas plataformas proíbam tal conteúdo e monitorem as publicações dos usuários.
Com o enorme volume de material —só no Facebook são 317 mil novas postagens a cada minuto, enquanto o Twitter tem 6.000 novos tuítes por segundo—, as plataformas usam ferramentas automatizadas de inteligência artificial, que permitem treinar um sistema para identificar e aprender novos padrões.
Essas empresas e organizações que defendem os direitos humanos usam tais ferramentas para vasculhar a internet em busca de conteúdo de exploração sexual infantil.
Uma das ferramentas pioneiras foi a PhotoDNA, criada pela Microsoft em 2009, e usada por Facebook, Instagram, WhatsApp e Twitter. Ela capta o equivalente à impressão digital de fotos e vídeos já identificados como de exploração sexual infantil e compartilha essa informação com todos que a utilizam.
Um dos grandes problemas no combate à divulgação desse tipo de conteúdo é que apagá-lo não garante sua exclusão definitiva da rede. Quem detém os arquivos pode adicioná-los à internet outra vez.
O Google usa ferramentas semelhantes, como o CSAI Match, desenvolvido pelo YouTube —que pertence ao grupo. A CSAI também é utilizada pelo Tumblr e pelo fórum virtual Reddit.
A empresa diz ainda que utiliza uma ferramenta própria que usa inteligência artificial para ajudar organizações de direitos humanos a priorizarem o material inédito de exploração sexual infantil que precisa ser revisado por outras pessoas. Chamada API Content Safety, ela é disponibilizada gratuitamente para ONGs e empresas.
Esses softwares também evitam que funcionários que fazem a triagem do conteúdo suspeito precisem ver tudo o que é postado.
A presença humana, porém, é importante para diferenciar algumas situações. Por exemplo, se uma mãe postar uma foto da filha pequena tomando banho, esse conteúdo viola as regras do Facebook, que proíbem nudez infantil. A imagem deverá ser derrubada, mas a mãe não precisa ser banida da rede social, porque sua intenção não era compartilhar imagem sexual.
Já se esse tipo de imagem é compartilhada por um perfil com fotos de várias outras crianças em situações semelhantes, o usuário é banido.
Essas ferramentas vasculham também o conteúdo postado na forma de stories, as publicações que somem em 24 horas.
As ferramentas automatizadas são responsáveis por encontrar a maior parte dos casos de exploração sexual infantil nas redes. Segundo relatório de transparência do Twitter, entre janeiro e junho de 2019, 91% das 244 mil contas suspensas no período por esse motivo foram pegas com esses softwares.
Quando as plataformas encontram material de exploração sexual infantil, reportam esse conteúdo para o NCMEC (Centro Nacional de Crianças Desaparecidas e Exploradas, na sigla em inglês), ONG norte-americana.
Caso haja envolvimento de brasileiros, o centro avisa as autoridades do país.
Não faltam ferramentas para coibir o compartilhamento de conteúdo de exploração sexual infantil, mas, segundo Thiago Tavares, presidente da SaferNet, organização de defesa dos direitos humanos na internet, o grau de proatividade varia entre as redes.
“Existem empresas que têm estruturas gigantescas e investem bilhões de dólares para detectar esses casos, já outras não enxergam o assunto como prioridade”, afirma.
O Twitter é um exemplo da segunda situação, segundo Tavares. “Eles têm uma estrutura reduzida, desproporcional ao problema a ser enfrentado, então a gente encontra mais desse tipo de material por lá.”
Em 2019, o NCMEC recebeu 16,8 milhões de relatórios enviados por empresas de tecnologia, e 360 mil foram encaminhados para a Polícia Federal brasileira. Desse total de relatórios, 15,8 milhões são apenas do grupo Facebook, que inclui Instagram e o WhatsApp.
Segundo Tavares, isso se deve à quantidade de usuários de suas redes —2,4 bilhões no Facebook, 2 bilhões no WhatsApp e 1 bilhão no Instagram— e também do esforço da empresa em combater a exploração sexual infantil.
Já o Google, dono do YouTube, enviou cerca de 450 mil relatórios ao NCMEC. Tavares acredita que essa diferença é causada pela natureza da rede. “O YouTube é uma plataforma de imagens em movimento, e 90% dos relatórios que são enviados dizem respeito a imagens estáticas.”
Para o presidente da SaferNet, o TikTok, rede social chinesa de vídeos curtos que faz sucesso entre crianças e adolescentes, é uma preocupação. A rede tem cerca de 800 milhões de usuários ativos.
“Já recebemos centenas de denúncias sobre conteúdo no aplicativo, mas não conseguimos ter contato com eles.”
Segundo o NCMEC, o TikTok enviou apenas 596 relatórios em 2019. A plataforma afirma proibir estritamente conteúdo sexualmente explícito ou que explore sexualmente menores, remover conteúdo inapropriado e encerrar contas.
Usuários que tiverem contato com imagens de exploração sexual em suas redes sociais podem denunciar o conteúdo nas próprias plataformas. Também é possível fazer uma denúncia à SaferNet, em denuncie.org.br. Só é preciso enviar o endereço da página.
Comentários
Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.