Descrição de chapéu The New York Times

Como o Facebook está lidando com a desinformação sobre o clima

Dispensa de verificação de informações em artigos de opinião abre brecha para negadores da mudança climática

Veronica Penney
The New York Times

Quando a Covid-19 se espalhou pelo mundo no início deste ano, o Facebook entrou em ação para combater desinformação potencialmente perigosa em seu site. A empresa rotulou e suprimiu conteúdos enganosos, tirou desinformação do ar e direcionou os usuários a fontes de informação confiáveis, incluindo o site do Centro de Controle e Prevenção de Doenças (CDC).

Essa ação pronta forma um contraste nítido com a postura adotada pela empresa em relação a outra questão complexa e divisiva: a mudança climática. Isso porque, segundo as diretrizes do Facebook, conteúdos climáticos podem ser classificados como opinião e, desse modo, ser isentos dos procedimentos de verificação de fatos.

Essa política significa que trabalhos científicos revistos por pares podem ser incluídos na mesma categoria que declarações de empresas que atuam no setor climático ou mesmo que desinformação evidente. Em setembro, por exemplo, a CO2 Coalition, entidade sem fins lucrativos que diz que o aumento das emissões de carbono faz bem ao planeta, conseguiu derrubar uma checagem de fatos quando o Facebook, sem fazer alarde do fato, rotulou seu post como “opinião”.

À luz do recente boicote de anunciantes ao Facebook e da auditoria independente divulgada neste mês que condenou a plataforma por permitir a multiplicação de discursos de ódio e desinformação, conversamos com a empresa e com vários especialistas externos sobre sua posição em relação à desinformação climática. O que ela disse:

Quais são as regras do Facebook?

Todos os conteúdos de opinião na plataforma –incluindo artigos de opinião ou posts que expressam os pontos de vista ou as agendas de políticos, empresas ou entidades não governamentais—são isentos da checagem de fatos. Segundo Andy Stone, diretor de política de comunicações do Facebook, a empresa segue essa política desde 2016.

Quem realiza a checagem de fatos?

O próprio Facebook não verifica conteúdos. Em vez disso, a empresa terceiriza esse trabalho para pelo menos 50 organizações independentes que têm acesso a posts flagrados pelo Facebook ou por usuários como sendo potencial desinformação.

Uma das entidades que checa fatos sobre mudança climática para a plataforma é a Climate Feedback, organização que recruta especialistas em tópicos específicos para analisar os posts. O processo pode levar semanas para um único artigo.

Segundo Scott Johnson, editor científico da Climate Feedback, os verificadores de fatos também podem analisar posts que ainda não foram assinalados ou classificados pelo Facebook.

Depois de rever um post, a empresa verificadora de fatos pode aplicar a ele um de oito avisos de conteúdo. Os rótulos possíveis incluem “Título Falso”, “Enganoso” e pura e simplesmente “Falso”.

Quando um conteúdo é rotulado como falso ou parcialmente falso, os usuários recebem um aviso em pop-up sobre o conteúdo se clicarem em cima para compartilhá-lo. Os posts falsos também são colocados em posição inferior no ranking, para aparecer mais embaixo nos feeds de notícias.

Que conteúdos são classificados como opinião?

Decidir ou que é ou não um conteúdo de opinião fica a critério do Facebook, não dos verificadores de fatos.

Essa política chamou a atenção em agosto passado, quando a CO2 Coalition compartilhou um artigo de opinião publicado no Washington Examiner contestando a precisão dos modelos de mudança climática. A Climate Feedback rotulou o post como “falso”.

A CO2 Coalition recorreu contra a decisão, e, segundo a Climate Feedback, o Facebook respondeu informando os verificadores de fatos que o post era um texto de opinião, logo, isento da checagem de fatos por terceiros.

“Colocar conteúdos que são verificavelmente falsos numa seção de opinião não deveria garantir imunidade contra a verificação de fatos”, disse Scott Johnson.

Segundo a Climate Feedback, o artigo de opinião selecionou alguns fatos e os compilou de maneira intencionalmente enganosa.

John Podesta, assessor do presidente Barack Obama que coordenou a política climática do governo Obama, descreveu a política do Facebook em relação a textos de opinião como “uma brecha tão grande que um caminhão poderia passar por ela”.

Brecha ou liberdade de expressão?

Segundo Stone, o Facebook se preocupa principalmente em identificar ou remover conteúdos que representem uma ameaça imediata à saúde e segurança física humana, incluindo desinformação sobre o coronavírus ou discursos de ódio que incitem à violência. Para ele, os conteúdos sobre mudança climática não se encaixam nessa categoria.

Stone disse que o post no Washington Examiner, publicado originalmente como artigo de opinião, se enquadra claramente na definição feita pelo Facebook de conteúdos de opinião. Para ele, os verificadores de fatos deveriam ter tido conhecimento dessa classificação.

Podesta disse que a política equivale a uma brecha aberta para a desinformação. Segundo ele, alguns textos de opinião “são cheios de mentiras factuais”.

“Não fazemos objeção às pessoas terem opiniões”, ele disse. “Fazemos objeção à difusão de desinformação e mentiras sob o disfarce de opinião.”

Andrew Dessler, professor de ciência atmosférica na Universidade Texas A&M que ajudou a checar o texto do Washington Examiner, concordou. Disse que é favor da discussão de questões de política pública, como, por exemplo, até que ponto devem ser reduzidas as emissões de carbono, mas que as décadas de pesquisas revistas por pares que estabeleceram fatos científicos sobre a mudança climática não devem ser postas em discussão.

Quando o Facebook é pressionado a combater a desinformação, a empresa muitas vezes aponta para sua política de proteger a liberdade de expressão e de opinião. Em maio o fundador da empresa, Mark Zuckerberg, disse à Fox News que a plataforma não deve tornar-se “árbitro da verdade sobre tudo o que as pessoas dizem online”.

Mas analistas apontam que nem toda a expressão é igual no Facebook. Alguns posts, frequentemente selecionados por algoritmos por serem controversos ou altamente engajados, podem ser promovidos de modo a alcançar milhões de pessoas. Esse enorme impulso seletivo lhes confere muito mais alcance e potência do que outros posts ou do que discussões entre pessoas em um jantar com amigos, por exemplo.

Emily Bell, diretora do Tow Center, na Universidade Columbia, que estuda jornalismo e plataformas digitais, observou que desde a eleição passada a luta do Facebook contra a desinformação tem estado em primeiro plano entre seus tópicos de discussão.

“Você construiu uma plataforma que na realidade realmente ajuda a acelerar a propagação de desinformação porque reage positivamente à indignação e às coisas que as pessoas querem compartilhar”, ela disse.

“Você tem uma declaração do tipo ‘acreditamos que todos devem ter voz’, algo que Mark Zuckerberg já disse inúmeras vezes”, ela prosseguiu. “Soa ótimo. Na prática, porém, sabemos o que significa deixar que todos tenham voz. Quer dizer que você não discrimina contra atores negativos que são potências estrangeiras. Quer dizer que você não cala pessoas que cometem bullying ou que querem humilhar e assediar outras pessoas.”

O Facebook disse em comunicado que triplicou desde 2016 o número de funcionários que trabalham com questões de segurança dos usuários. Stone notou que a empresa produz relatórios trimestrais, disponíveis para o público, que descrevem a quantidade de conteúdos que ela remove por violarem suas diretrizes.

“Quando alguém posta um conteúdo baseado em fatos falsos – mesmo que seja um artigo de opinião ou um editorial --, o conteúdo ainda pode ser submetido à verificação de fatos”, disse Stone em comunicado em resposta a este artigo.

“Estamos trabalhando para deixar isso mais claro em nossas diretrizes, para que nossos checadores de fatos possam usar seu julgamento próprio para determinar quando se trata de uma tentativa de mascarar informações falsas sob o pretexto de opinião.”

Tradução de Clara Allain

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.