Descrição de chapéu Facebook instagram

Facebook foi usado para incitar tráfico humano e limpeza étnica, dizem jornais

Segundo documentos vazados, empresa não investiu para combater desinformação em países de risco

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo

Do tráfico de mulheres em Dubai aos cartéis de drogas no México, da limpeza étnica na Etiópia a ataques contra muçulmanos na Índia, o Facebook tem sido utilizado para incentivar atividades criminosas e discurso de ódio contra minorias e falhou em proteger seus usuários em zonas de conflitos e em países onde a desinformação tem potencial de causar mais danos.

Segundo documentos internos vazados por uma ex-funcionária e divulgados nos últimos dias por um consórcio de 17 veículos de comunicação, a empresa se expandiu globalmente sem investir o suficiente na moderação de suas plataformas, especialmente em países onde não se fala inglês. A companhia opera em cerca de 190 nações e tem mais de 2,8 bilhões de usuários mensais que postam conteúdo em 160 idiomas.

Frances Haugen, ex-funcionária do Facebook que denunciou a empresa, após falar ao Parlamento britânico em Londres nesta segunda-feira (25)
Frances Haugen, ex-funcionária do Facebook que denunciou a empresa, após falar ao Parlamento britânico em Londres nesta segunda-feira (25) - Tolga Akmen/ AFP

Os documentos foram recolhidos por Frances Haugen, que trabalhou na equipe dedicada à integridade cívica no grupo de Mark Zuckerberg, antes de deixar a empresa, em maio, e enviados ao Congresso americano e ao grupo de meios de comunicação —a série vem sendo chamada de Facebook Papers ou Facebook Files.

Apesar de esforços para enfrentar a desinformação terem sido bem-sucedidos em alguns lugares, a resposta tem sido insuficiente em vários outros, afirmam as reportagens do consórcio. No fim de 2020, por exemplo, um relatório interno mostrou que apenas 6% do conteúdo de ódio postado em árabe no Instagram —rede social que faz parte do grupo— foi detectado.

Outro estudo mostrou que menos de 1% do material classificado como discurso de ódio em um período de 30 dias no Afeganistão foi identificado pelas ferramentas de moderação automática.

Anúncios atacando mulheres e pessoas LGBTQIA+ raramente foram sinalizados no Oriente Médio, e uma pesquisa recente no Egito revelou que usuários têm medo de serem presos ou atacados após postarem suas visões políticas na plataforma, informou nesta segunda-feira (25) o Politico, um dos integrantes do consórcio de imprensa que teve acesso aos documentos.

O site cita ainda o exemplo do Iraque, onde milícias sunitas e xiitas usaram ciberativistas para postar material profano e ilegal nas contas dos rivais, em uma tentativa de que elas fossem removidas.

Ao Politico, o Facebook respondeu que possui equipes dedicadas a acabar com o abuso virtual em países mais vulneráveis e pessoas revisando conteúdo em mais de 70 línguas, que têm conseguido identificar novos termos usados em discursos de ódio.

No ano passado, de acordo com os documentos, apenas 13% das horas de trabalho da equipe de moderação de desinformação foram dedicadas a países fora dos EUA, cujas populações compreendem mais de 90% dos usuários da plataforma, mostrou uma reportagem publicada pela revista The Atlantic, outro membro do consórcio.

O texto afirma que a empresa não investiu em idiomas e dialetos falados fora dos EUA e da Europa tanto para suas ferramentas de inteligência artificial quanto para equipes que moderam conteúdo. Diz ainda que o Facebook está ciente de que seus esforços são insuficientes para combater o problema, citando relatório de março de 2021 que menciona que essas "atividades coordenadas e intencionais" são especialmente prevalentes e problemáticas em países e contextos de risco e que "as atuais estratégias de mitigação são insuficientes".


De acordo com a reportagem, se nos Estados Unidos há críticas sobre o papel da plataforma em disseminar teorias da conspiração que levaram, por exemplo, à invasão do Capitólio em 6 de janeiro por partidários do ex-presidente Donald Trump, em outros países a situação é mais grave.

"Esses documentos mostram que o Facebook que temos nos Estados Unidos é, na verdade, a plataforma em sua melhor versão. É a versão feita por pessoas que falam nossa língua e entendem nossos costumes, que levam nossos problemas cívicos a sério por serem problemas deles também. É a versão que existe em uma internet gratuita, sob um governo relativamente estável, em uma democracia forte. É também a versão à qual o Facebook dedica mais recursos de moderação", sintetiza a The Atlantic.

"Em outros lugares, segundo os documentos, as coisas são diferentes. Nas partes mais vulneráveis ​​do mundo —locais com acesso limitado à internet, onde um número menor de usuários significa que os malfeitores têm influência desproporcional—, os erros que o Facebook comete podem ter consequências mortais."

O Facebook respondeu à reportagem que gastou US$ 13 bilhões em segurança desde 2016 e que "os registros mostram que a empresa vem combatendo abusos no exterior com a mesma intensidade que nos EUA".

Um exemplo concreto que tem sido usado é o da Etiópia, país que vive uma guerra civil desde o ano passado na região do Tigré, no norte. Haugen já disse que uma de suas principais motivações para tornar públicos os documentos internos é trazer à luz "o quão mal o Facebook está lidando com países como a Etiópia".

"Eu genuinamente temo que um enorme número de pessoas vá morrer nos próximos cinco ou dez anos, ou 20 anos, por causa de escolhas e falta de financiamento" do Facebook, afirmou.

Segundo reportagem desta segunda-feira (25) da CNN, um relatório interno de março deste ano afirma que grupos armados no país têm usando a plataforma para incitar à violência contra minorias étnicas

Um desses grupos, acusado de cometer assassinatos, estupros e outras brutalidades contra civis no conflito, usava a plataforma para incitar a violência, promover batalhas, recrutar soldados e arrecadar fundos. Embora a equipe do Facebook tenha recomendado que a rede afiliada à milícia fosse retirada do ar, o relatório afirma que os esforços não têm sido suficientes.

A CNN também fez uma reportagem sobre a relação entre a companhia e o trabalho escravo de mulheres como empregadas domésticas no Oriente Médio. De acordo com os documentos analisados, a empresa sabe que traficantes de pessoas usam suas plataformas para esse fim desde pelo menos 2018.

Por esse motivo, em 2019, a Apple ameaçou retirar o Facebook e o Instagram da App Store, sua loja de aplicativos. Depois de um esforço emergencial para retirar do ar posts relacionados a esse tipo de crime, a ameaça não foi adiante.

Mas um relatório interno do começo deste ano observou que "ainda existem lacunas na detecção na plataforma de entidades engajadas em servidão doméstica" e detalhou como as redes sociais da empresa são usadas para recrutar, comprar e vender "empregados domésticos". Essas pessoas são sujeitas a abusos físicos e sexuais, sendo privadas de comida e pagamento e tendo seus documentos de viagem confiscados para que não possam escapar.

Usando termos de pesquisa listados na pesquisa interna do Facebook sobre o assunto, a CNN localizou na semana passada contas ativas do Instagram que ofereciam trabalhadores domésticos para venda. Como resposta à reportagem, o Facebook removeu as contas e postagens depois que a CNN perguntou sobre eles, e o porta-voz Andy Stone confirmou que eles violaram suas políticas.

"Proibimos a exploração humana em termos inequívocos", disse. "Há muitos anos lutamos contra o tráfico humano em nossa plataforma e nosso objetivo continua sendo impedir que qualquer pessoa que queira explorar outras pessoas tenha um lar em nossa plataforma."

Maior mercado do Facebook, a Índia, onde moram 340 milhões de usuários das várias redes sociais da empresa, também é citada várias vezes nos documentos como um caso problemático. O jornal The New York Times, que também teve acesso aos documentos vazados, publicou uma reportagem com base nos papéis afirmando que o Facebook não tinha recursos suficientes na Índia e não foi capaz de lidar com os problemas que introduziu no país.

Os documentos incluem relatórios sobre como robôs (bots) e contas falsas ligadas ao partido governista e a figuras da oposição causaram estragos nas eleições nacionais. Eles também detalham como um plano, defendido por Zuckerberg, para se concentrar em "interações sociais significativas" ou comunicações entre amigos e familiares estava levando a mais desinformação, especialmente durante a pandemia.

O caso, segundo o jornal, confirma as críticas feitas por ativistas de direitos humanos e políticos à empresa de alcance global: de que ela entra num país sem compreender bem seus efeitos potenciais na cultura e na política locais e não consegue empregar recursos para agir sobre os problemas quando eles ocorrem.

Após o início das eleições nacionais na Índia, o Facebook implementou medidas para conter o fluxo de desinformação e o discurso de ódio no país, de acordo com um documento interno denominado Estudo de Caso da Eleição Indiana.

O trabalho pintou um quadro otimista dos esforços, incluindo o acréscimo de parceiros para verificação de fatos —a rede de terceiros com a qual a empresa trabalha para checar fatos— e a quantidade crescente de desinformação removida. Também observou que o Facebook tinha criado uma "lista de permissão política para limitar o risco de relações-públicas", essencialmente uma lista de políticos que receberam uma isenção especial da verificação de fatos.

O estudo não observou o problema que a empresa enfrentava com os bots nem questões como a supressão de eleitores. Durante a eleição, o Facebook viu um pico de bots —ou contas falsas— vinculadas a vários grupos políticos, bem como esforços para espalhar informações incorretas que poderiam ter afetado a compreensão das pessoas sobre o processo de votação.

Em um relatório separado produzido após as eleições, o Facebook descobriu que mais de 40% das principais visualizações, ou impressões, em Bengala Ocidental foram "falsas/inautênticas".

Um relatório publicado em março mostrou que muitos dos problemas citados durante as eleições de 2019 persistiam. Cinco meses atrás, o Facebook ainda lutava para remover com eficiência o discurso de ódio contra os muçulmanos.


Alguns casos apontados por reportagens sobre os documentos vazados

Afeganistão
Documento de janeiro de 2021 revela que as ferramentas automáticas de moderação conseguem detectar apenas 1% do discurso de ódio postado no Afeganistão, onde grupos extremistas como o Talibã usam a plataforma para postar material que incita à violência. Funcionários disseram que a empresa tem poucos contratados que falam o idioma local para moderar conteúdo.

Emirados Árabes Unidos
Segundo documentos, desde 2018 a empresa sabe que traficantes de pessoas usam a plataforma para recrutar mulheres para trabalho escravo como domésticas em Dubai. Por causa disso, em 2019 a Apple ameaçou retirar o Facebook e o Instagram da App Store, sua loja de aplicativos.

Etiópia
Grupos armados têm usado o Facebook para incitar à violência contra minorias étnicas. Uma das milícias usava a rede social para recrutar combatentes, arrecadar fundos e fazer chamados para batalhas.

Índia
Robôs e contas falsas ligadas aos governistas e à oposição espalharam desinformação durante as eleições usando as plataformas do Facebook. Grupos extremistas também vêm publicando discurso de ódio contra muçulmanos e aumentando a tensão religiosa em várias áreas do país.

Iraque
Milícias sunitas e xiitas que disputam poder usam o Facebook para derrubar conteúdo de contas rivais, postando, por exemplo, contéudo pornográfico ou ilegal na tentativa de que elas sejam removidas.

Tradução de Luiz Roberto M. Gonçalves

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.