Descrição de chapéu Facebook

Relatório do Facebook alerta para circulação de violência, mas empresa não prioriza Brasil

Documentos mostram percepção de disseminação de discurso político incendiário na plataforma, mas orientam equipe a focar EUA e Reino Unido

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo e BAURU (SP)

Um relatório interno do Facebook recomenda que a empresa investigue a grande circulação de conteúdo violento na plataforma e em seu aplicativo de mensagens WhatsApp no Brasil. De acordo com o texto, a percepção no país é a de que a circulação de conteúdo violento é muito maior no Facebook e no WhatsApp do que em plataformas como Instagram, TikTok e Twitter.

"Precisamos examinar seriamente por que a violência explícita continua a ter um alcance maior no Facebook e no WhatsApp no Brasil", recomenda o documento.

Instalação em Londres mostra o fundador do Facebook, Mark Zuckerberg, com bandeira que diz: 'nós sabemos que fazemos mal às crianças, mas não ligamos'
Instalação em Londres mostra o fundador do Facebook, Mark Zuckerberg, com bandeira que diz: 'nós sabemos que fazemos mal às crianças, mas não ligamos' - Tolga Akmen - 25.out.21/AFP

A informação consta dos chamados Facebook Papers, relatórios internos encaminhados à Comissão de Valores Mobiliários (SEC, na sigla em inglês) dos Estados Unidos e fornecidos ao Congresso americano pelos advogados de Frances Haugen, ex-funcionária da empresa. A Folha faz parte do consórcio de veículos de mídia que teve acesso a esses papéis, que foram revisados pelos advogados e tiveram trechos ocultados. O Facebook recentemente mudou o nome da empresa que reúne suas plataformas para Meta.

O documento aponta que, no Brasil, também existe a percepção de que desinformação, linguagem política incendiária, bullying e exploração de crianças são problemas muito maiores no Facebook do que em outras plataformas. A empresa recomenda que uma equipe investigue "por que o alcance [de conteúdo de exploração infantil] é maior [no Facebook] do que em outras plataformas no Brasil e na Colômbia".

Com data de julho de 2020, o texto afirma que as declarações e mensagens políticas são o tipo de desinformação com maior alcance na plataforma no Brasil, na percepção das pessoas.

Enquanto isso, nos EUA e no Reino Unido a visão geral é que o conteúdo noticioso é o maior veículo de desinformação cívica, ligada à integridade eleitoral ou das instituições, no Facebook. Na Indonésia, as contas falsas é que são percebidas como principal motor na disseminação de desinformação.

A percepção avaliada pela empresa é de que, no Brasil, considera-se que o Facebook é a plataforma em que o discurso político incendiário tem o maior alcance. Na Índia, o TikTok; nos EUA, o Twitter.

No entanto, a recomendação do relatório é que a divisão de integridade cívica da empresa —que lida com desinformação eleitoral— "continue a se concentrar no conteúdo enganoso que circula nos EUA e no Reino Unido" e que o setor de desinformação em geral tenha uma abordagem mais ampla, incluindo outros países.

Uma das principais críticas feitas ao Facebook é que a empresa negligencia a moderação de conteúdo em países vistos como menos importantes que os EUA, o Reino Unido e nações da União Europeia.

Em nota, a Meta afirmou que os resultados dessas pesquisas "não medem a prevalência ou a quantidade de um determinado tipo de conteúdo nos nossos serviços, mas mostra a percepção das pessoas sobre o conteúdo que elas veem nas nossas plataformas. Essas percepções são importantes, mas dependem de uma série de fatores, incluindo o contexto cultural".

"Divulgamos trimestralmente a prevalência de materiais que violam nossas políticas e estamos sempre buscando identificar e remover mais conteúdos violadores", encerra o texto.

No início de abril, uma ex-funcionária, Sophie Zhang, afirmou que a empresa deixou de agir diante de líderes de países como Honduras que usaram a plataforma de forma ilegítima, por exemplo por meio de contas de comportamento inautêntico, para fins autoritários. Segundo ela, a hoje Meta resolveu não agir, mesmo após alertas, alegando que não valia a pena.

Um levantamento feito em março pela Agência Lupa apontou que o presidente brasileiro, Jair Bolsonaro (sem partido), havia violado regras da rede social para publicações sobre a pandemia ao menos 29 vezes neste ano, até aquela altura. Ainda assim, ele não havia recebido qualquer punição: ao contrário do que fez em outros países, a plataforma não removeu nem fez alertas sobre nenhum desses conteúdos.

No último dia 24 de outubro, porém, o Facebook excluiu uma live de Bolsonaro, transmitida dias antes, em que ele leu uma suposta notícia dizendo que "vacinados [contra a Covid] estão desenvolvendo a síndrome da imunodeficiência adquirida [Aids]". Médicos afirmam que a associação entre o imunizante e a Aids é falsa, inexistente e absurda.

Um porta-voz da empresa disse que o motivo para a exclusão foram as políticas da rede relacionadas à imunização contra o coronavírus. "Nossas políticas não permitem alegações de que as vacinas contra a Covid-19 matam ou podem causar danos graves às pessoas."

Outro documento tornado público por Haugen e obtido pela Folha mostra que o Facebook, apesar das promessas de combate à desinformação que pode ameaçar eleições, ainda resiste a pagar o preço político para aplicar suas regras.

Relatório interno sobre a eleição geral da Índia de 2019 atesta que foram usadas ferramentas para reduzir o alcance da desinformação cívica, como diminuir a distribuição de posts de grande compartilhamento —estratégias baseadas na experiência de eleições nos EUA (legislativas) e no Brasil (presidenciais) em 2018. Ainda assim, o texto ressalva que tudo isso "respeitou a ‘white list’ política, para limitar riscos de relações públicas".

A chamada "white list" desobriga determinadas figuras públicas de cumprir as regras de comunidade —que proíbem, por exemplo, desinformação em relação à Covid, incitação a violência, nudez não consensual e ameaças à integridade eleitoral. Na prática, enquanto usuários "normais" podem ser suspensos ou penalizados por violar essas normas, os membros da lista têm o conteúdo analisado por equipes que revisam as decisões e, muitas vezes, liberam a postagem.

Foi o que aconteceu com o jogador de futebol Neymar, que fez lives no Facebook e no Instagram mostrando nudes enviados pela modelo Najila Trindade, que o acusou de estupro. Apesar de a plataforma ter regras claras contra a exposição não consensual de nudez, a chamada "pornografia de vingança", os vídeos do atleta ficaram no ar mais de 24 horas nas duas plataformas, com mais de 50 milhões de visualizações, antes de serem derrubadas —o erro foi apontado em relatório dos Facebook Papers.

A preocupação com a imagem da empresa e a necessidade de ofensivas de relações públicas aparecem novamente no relatório que analisa a percepção de usuários sobre o Facebook. O documento mostra que no Brasil a impressão é de que a circulação do discurso de ódio e bullying na plataforma é maior (o Twitter vem em segundo lugar). Na Índia, o TikTok lidera essa lista e nos EUA, o Twitter.

A recomendação em relação ao problema é "redobrar esforços de relações públicas em torno de discurso de ódio e bullying no Facebook".

Para estudar as tendências de desinformação no Brasil, os analistas do Facebook compilaram uma série de reportagens de veículos jornalísticos compartilhadas na plataforma. O objetivo era entender o que poderia estar impulsionando o compartilhamento, por meio da plataforma, de conteúdos falsos ou distorcidos durante o período analisado (março e abril de 2020).

Constam da lista episódios em que Bolsonaro atacou a imprensa e ao menos três ocasiões em que ele minimizou ou negou a gravidade da pandemia.

Além de textos de veículos como o jornal britânico The Guardian e a agência de notícias Reuters, os analistas incluíram uma reportagem da Folha sobre a decisão tomada por Facebook, Twitter e Instagram de excluir um vídeo em que Bolsonaro aparece passeando por Brasília e provocando aglomerações. À época, as empresas entenderam que o conteúdo criava desinformação e poderia "causar danos reais às pessoas".

Em outro documento revelado por Haugen, a empresa define "danos sociais coordenados" como "atividade coordenada ou direcionada por um Estado ou agentes hostis com a intenção de causar sérios prejuízos sociais" e propõe uma gradação de malefícios causados e punições a eles.

Entre esses danos estariam "tentativas de deslegitimar o processo eleitoral ou o resultado de eleições justas, com coordenação ou incitação a derrubar um governo ou uma instituição, baseando-se em desinformação" —como exemplo, são citados a Etiópia e os EUA.

Nessa categoria, segundo o texto do Facebook, se encaixam páginas ligadas à Ordem Dourada do Brasil, descrita como uma "organização apoiada por militares que combina religião evangélica, conteúdo pró-Bolsonaro, teoria da conspiração, defesa da ditadura militar, e conteúdo pró-armas".

Essas páginas, de acordo com o documento, têm "alta coordenação, postagens em massa e pessoas com múltiplos perfis amplificando conteúdo". A recomendação é de que as páginas sejam removidas ou tenham alcance restrito.

Procurada, a Meta enviou uma nota. "Bilhões de pessoas no mundo, inclusive no Brasil, usam nossos serviços porque veem utilidade neles e têm boas experiências. Já investimos US$ 13 bilhões em segurança globalmente desde 2016 —estamos a caminho de investir US$ 5 bilhões só neste ano— e temos mais de 40 mil pessoas trabalhando para manter as pessoas seguras nos nossos aplicativos", diz o texto.

"Também investimos em pesquisas internas para ajudar a identificar de forma proativa onde podemos melhorar nossos produtos e políticas."

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.