Facebook reconhece que falhou em impedir violência contra rohingya

Estudo encomendado pela empresa mostra disseminação de conteúdo falso e de ódio na plataforma

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo

Os ataques contra a minoria muçulmana rohingya em Mianmar ocorreram, em parte, porque o Facebook não tomou as medidas necessárias para impedir a disseminação de notícias falsas e de conteúdo de ódio, diz um novo relatório encomendado pela própria companhia.

Segundo o documento, posts e contas na rede social incentivaram e ampliaram a tensão entre os rohingya e a maioria budista do país de 53 milhões de habitantes, muitas vezes levando a casos de violência.

“Apesar de não ser possível entender perfeitamente a relação direta entre o conteúdo postado no Facebook e a violência no mundo real, o Facebook se tornou um meio para aqueles que querem espalhar o ódio e causar danos”, diz o documento divulgado na segunda (6).  

Além dos rohingya, outros grupos também podem ser alvos de violência criada a partir das redes sociais, em especial mulheres e crianças, diz o documento.    

O estudo foi conduzido de maio a setembro e foi feito a partir da análise de postagens no Facebook e de entrevistas com ativistas de direitos humanos de Mianmar e com moradores do país, incluindo vítimas de violência.   

“Há indicativos que grupos organizados usaram diversos perfis falsos e páginas para espalhar discurso de ódio, fake news e desinformação para ganho político. Rumores divulgados pela mídia social foram associados com a violência comunitária e atos de linchamento coletivo”, diz o texto, feito pela organização Business for Social Responsibility (BSR), que tem sede em San Francisco, nos Estados Unidos.

Mais de 25 mil rohingya já morreram desde o início da atual onda de ataques, que começou em agosto de 2017, e cerca de 700 mil tiveram que fugir do país.

O estudo mostra que o aumento do acesso à internet em Mianmar a partir de 2013 fez o Facebook se tornar onipresente no país, a ponto de praticamente todos os usuários terem conta na plataforma.

“Para a maioria das 20 milhões de cidadãos de Mianmar conectados, o Facebook é a internet”, diz o texto. Essa população, porém, tem pouco conhecimento de tecnologia —o estudo a classifica como “analfabeta digital-- e tem dificuldade para diferenciar notícias verdadeiras de falsas.     

“O predomínio de discurso de ódio, desinformação e pessoas má-intencionadas no Facebook teve um impacto negativo na liberdade de expressão, de reunião e de associação para os usuários mais vulneráveis de Mianmar”, diz o texto.   

O estudo é o primeiro documento do Facebook a admitir a ligação entre a rede social e a violência em Mianmar, mas em entrevista em julho, Mark Zuckerberg, fundador e CEO da empresa, já tinha afirmado que a rede social provavelmente tinha alguma culpa no que ocorreu no país.

Um relatório da ONU divulgado em setembro, que acusou a cúpula militar do país de genocídio contra os rohingya, também já tinha criticado o Facebook por sua inação em conter o problema e pedido à empresa que permitisse uma análise independente e profunda de como o conteúdo de ódio foi disseminado na plataforma.

O Facebook já tomou uma série de medidas para tentar conter a situação e no fim de agosto, após sugestão da ONU, removeu as contas de diversos líderes militares birmaneses. O relatório desta segunda, porém, não detalha os resultados dessas iniciativas.

Em vez disso, o documento faz uma série de recomendações à empresa, em especial em preparação para a eleição de 2020, que “provavelmente será um foco de discurso de ódio, perseguição, desinformação, incitação à violência e outras ações feitas para afetar o processo políticos”, afirma o texto. “O Facebook faria bem em se preparar já para diversas possibilidades”.

Entre as principais medidas sugeridas pelo documento estão a criação de uma política global de direitos humanos para o Facebook e a implementação de uma equipe específica para atuar em Mianmar. 

Em resposta ao novo relatório, o gerente de política de produtos do Facebook, Alex Warofka, escreveu um texto no qual reconhece os erros da empresa no último ano, mas defende as medidas recentes adotadas e se compromete a continuar trabalhando para resolver a questão.

“O estudo conclui que, antes deste ano, nós não estávamos fazendo o suficiente para ajudar a prevenir que a plataforma fosse usada para fomentar a divisão e incitar a violência no mundo real. Nós concordamos que podemos e devemos fazer mais”, escreveu ele.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.