Saiba como as redes sociais lidam com as fake news e quais medidas cada plataforma tem adotado

Estudo do Intervozes identificou as principais medidas adotadas por cinco plataformas desde 2018

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo

Embora a desinformação não tenha um conceito universal a ser seguido por redes sociais, as grandes empresas de tecnologia se viram forçadas a adotar medidas para conter a onda de notícias falsas e informações enganosas que passaram a exercer forte influência em processos democráticos.

Estudo do Intervozes, uma organização ativista que estuda mídia, liberdade de expressão e internet, publicado a poucas semanas das eleições municipais no Brasil, identificou como Facebook, Instagram, WhatsApp, YouTube e Twitter lidam com o tema.

A principal conclusão é que, apesar de avanços para inibir notícias falsas em suas plataformas, as empresas não estruturaram o assunto em seus termos de uso —as políticas contratuais que apresentam a usuários e reguladores.

Embora evitem moderar a circulação de informação em suas redes, as chamadas big techs têm atuado nessa frente, excluindo publicações, principalmente com a chegada da Covid, que elevou o potencial danoso de uma informação falsa.

De acordo com os pesquisadores, o problema de não organizar as medidas contra a desinformação é que os processos que resultam em exclusão de um conteúdo ou redução de seu alcance ao público não são evidenciados em relatórios de transparência, o que é prejudicial à liberdade de expressão.

"Do ponto de vista da informação sobre como lida com conteúdos desinformativos, chamou atenção a baixa transparência das plataformas", diz o estudo, acrescentando que boa parte do trabalho se baseou em buscar informações dispersas em notícias nos sites oficiais e em sites de 'ajuda' ou FAQ de cada uma das empresas.

Veja as principais medidas implementadas por cada plataforma desde 2018

Facebook

  • Não tem política específica para desinformação
  • Em 2020, criou o Conselho de Supervisão de Conteúdo, formado por membros externos à empresa e que toma decisões sobre casos específicos, não apenas relativos à desinformação
  • Apresenta estratégias para o tema de maneira resumida nos Padrões da Comunidade (sua política de uso)
  • Recebe denúncias e utiliza sistemas automatizados para analisar publicações
  • Encaminha conteúdos para agências de checagem parceiras. Caso sejam classificados como “falsos” ou “parcialmente falsos”, são rotulados e acompanhados de artigos relacionados produzidos pelos checadores
  • Declarações de líderes políticos não passam por agências de checagem
  • Remove casos de desinformação que causem violência, dano ou comprometam processos eleitorais
  • Reduz a circulação de contas difusoras de conteúdos como caça-cliques
  • Com a política que proíbe discurso de ódio desde 2018, passou a restringir algumas transmissões ao vivo e a indicar materiais de combate ao ódio em buscas relacionadas a nazismo e supremacia branca, por exemplo
  • Derruba contas de "comportamento não autêntico coordenado", como redes com contas falsas para promover assuntos específicos
  • Possui uma biblioteca com anúncios pagos com informações para pesquisa

Instagram

  • Segue a linha geral adotada pelo Facebook, com os mesmos flucos e procedimentos
  • Não possui estrutura institucional ou processos específicos para tratar de desinformação
  • Analisa conteúdos a partir de agências de checagem de fatos, que classificam uma publicação em diferentes categorias. Conteúdos são marcados quando verificados como desinformativos e podem ter circulação reduzida
  • São removidos conteúdos com falsos tratamentos sobre Covid-19, teorias da conspiração ou falsas alegações registradas como danosas por autoridades de saúde
  • Durante as eleições, se um conteúdo for classificado como falso, um filtro cinza é exibido sobre a imagem e alertas são dados ao usuário
  • Disponibiliza textos de contraponto elaborados por verificadores de fatos como "desmentidos"
  • Contas falsas são removidas, a maior parte já na tentativa de abertura
  • Na linha do Facebook, contas ou redes com "comportamento inautêntico" são derrubadas

WhatsApp

  • Apresenta-se como plataforma de mensagens privadas criptografadas que, como tal, não acessa, modera, julga, verifica, bloqueia ou retira conteúdo. Segundo o estudo, isso "é contraditório com a existência de grupos e listas de transmissão que acabam fazendo com que tenha funcionamento de rede social"
  • Não possui política ou estrutura institucional para lidar com desinformação
  • Atua para reduzir a circulação de mensagens por meio de limites para encaminhamento
  • Desde a pandemia, mensagens altamente encaminhadas só podem ser repassadas a um contato de cada vez
  • Nas eleições de 2020, firmou acordo com TSE para denúncia de disparo em massa e criou chatbot para troca de informações
  • No aplicativo ou no blog oficial, há referências sobre desinformação, mas são dispersas e pouco acessíveis ao usuário comum
  • "Falta transparência quanto às práticas adotadas pelo WhastApp", diz o estudo, referindo-se à proibição de criação ou remoção de contas, além de relatórios
  • Inseriu uma lupa ao lado de mensagens altamente encaminhadas para que o usuário busque mais informações diretamente no Google
  • Usa ferramentas de tratamento de spam e aprendizagem de máquinas para retirar mensagens automatizadas em massa e banir contas com comportamentos inadequados

YouTube

  • Não possui política específica para o tema. Restrições à disseminação de desinformação aparecem em diferentes políticas
  • Conteúdos que violam as Diretrizes da Comunidade são removidos e notificados
  • Estimula a denúncia de conteúdos considerados inapropriados, que são analisados internamente
  • Tira do ar conteúdos que violam suas diretrizes e reduz o alcance de “desinformação danosa” e “conteúdos limítrofes”, deixando de recomendá-los
  • Vídeos editados e adulterados são proibidos pela política de “mídia manipulada”, assim como canais que falseiam sua identidade
  • Possui um grupo de análise de ameaças para identificar práticas de desinformação patrocinadas por governos
  • Exibe painéis de informação com dados de contexto sobre assuntos históricos com "vozes autorizadas", como canais de jornalismo, por exemplo
  • Remove conteúdos e canais que desrespeitam a política para eleições e passou a remover informações enganosas sobre a Covid-19
  • Tem política contra spam, falsificação de identifidade e envolvimento falso, e restringe o acesso ao serviços por qualquer meio automatizado

Twitter

  • Não tem definição específica para desinformação
  • Oferece contexto para ajudar pessoas a decidir o teor de um post contestado, agindo em casos de possíveis danos causados por mídias manipuladas, informações enganosas sobre processos eleitorais e relacionadas à Covid-19
  • Proíbe o uso de robôs manipuladores da rede
  • Mídias manipulada são marcadas, têm visibilidade reduzida, recebem link com mais explicações ou são removidas
  • Não permite anúncios pagos de políticos e de veículos de comunicação estatais
  • Conteúdos que possam enganar as pessoas sobre quando, onde e como votar também são proibidos
  • Posts de líderes globais, mesmo que desinformativos, ficam no ar se forem de interesse público. A publicação é exibida com um aviso e não é possível interagir com ele
  • Com a pandemia, ampliou a definição de “dano” para incluir conteúdos contrários às recomendações das autoridades de saúde; remove posts relativos a ações de risco
  • Abriu a plataforma para acompanhamento em tempo real de postagens sobre a Covid por desenvolvedores e pesquisadores
  • Divulga arquivos de posts de atividades coordenadas apoiadas por governos
  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.