Descrição de chapéu Financial Times tecnologia Facebook

Facebook não entende o próprio algoritmo; veja o que dizem documentos vazados sobre a empresa

Série de reportagens Facebook Papers mostra documentos que pintam quadro negativo de rede social

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Financial Times

O Facebook está lutando contra sua crise mais grave desde o escândalo da Cambridge Analytica, depois que uma denunciante acusou a empresa de colocar "o lucro acima da segurança" e revelou seu funcionamento interno em milhares de páginas de memorandos vazados.

Os documentos foram divulgados aos órgãos reguladores dos Estados Unidos e fornecidos ao Congresso de forma editada pelo advogado de Frances Haugen. Um consórcio de organizações de notícias, incluindo o Financial Times, obteve as versões revisadas recebidas pelo Congresso.

No início deste mês, Haugen testemunhou no Congresso que a empresa de rede social não faz o suficiente para garantir a segurança de seus 2,9 bilhões de usuários, minimiza os danos que pode causar à sociedade e enganou repetidamente os investidores e o público. O Wall Street Journal também publicou uma série de artigos chamados Facebook Files (Arquivos do Facebook).

Frances Haugen, ex-funcionária do Facebook - Matt McClain, 5.out.2021/Reuters

Aqui estão quatro revelações surpreendentes que os documentos contêm:

O Facebook tem um grande problema de linguagem

Logo do Facebook - Chris Delmas - 22.out.2021/AFP

O Facebook é frequentemente acusado de não moderar o discurso de ódio em seus sites em inglês, mas o problema é muito pior em países que falam outras línguas, mesmo depois que a companhia prometeu investir mais, após ser acusada de facilitar com sua atuação o genocídio em Mianmar em 2017.

Um documento de 2021 alertou sobre o número muito baixo de moderadores de conteúdo em dialetos árabes falados na Arábia Saudita, no Iêmen e na Líbia. Outro estudo do Afeganistão, onde o Facebook tem 5 milhões de usuários, descobriu que até as páginas que explicam como denunciar o discurso de ódio foram traduzidas incorretamente.

As falhas ocorreram apesar de a própria pesquisa do Facebook ter marcado alguns países como de "alto risco" por causa de sua paisagem política frágil e a frequência do discurso de ódio.

De acordo com um documento, a empresa alocou 87% de seu orçamento para desenvolver algoritmos de detecção de desinformação nos Estados Unidos em 2020, contra 13% no resto do mundo. Haugen disse que o Facebook deveria ser transparente quanto aos recursos de que dispõe por país e idioma.

O Facebook muitas vezes não entende como seus algoritmos funcionam

Vários documentos mostram o Facebook confuso com seus próprios algoritmos.
Um memorando de setembro de 2019 revelou que os homens recebiam 64% mais posts políticos do que as mulheres em "quase todos os países", com a questão sendo particularmente extensa nos países africanos e asiáticos.

Embora os homens tenham maior propensão a seguir contas que produzem conteúdo político, o memorando afirma que os algoritmos de classificação de feeds do Facebook também desempenharam um papel significativo.

Um memorando de junho de 2020 concluiu que era "virtualmente garantido" que os "principais sistemas do Facebook mostram tendências sistêmicas com base na raça do usuário afetado".

O autor sugeriu que talvez a classificação do feed de notícias seja mais influenciada por pessoas que compartilham com frequência do que por aquelas que compartilham e se envolvem com menos frequência, o que pode estar relacionado à raça. Isso faz com que o conteúdo de certas raças seja priorizado em relação a outras.

Como sua inteligência artificial falhou, o Facebook tornou mais difícil denunciar discursos de ódio

O Facebook há muito diz que seus programas de IA podem detectar e eliminar a incitação ao ódio e os abusos, mas os documentos mostram seus limites.

De acordo com uma nota divulgada em março de 2021 por um grupo de pesquisadores, a empresa toma medidas em apenas 3% a 5% dos discursos de ódio e 0,6% de conteúdos violentos. Outro memorando sugere que talvez nunca consiga ir além de 10% a 20%, porque é "extraordinariamente desafiador" para a IA entender o contexto em que a linguagem é usada.

No entanto, o Facebook já havia decidido confiar mais na IA e cortar o dinheiro que gastava com intermediação humana em 2019 em relação a discurso de ódio. Em particular, a empresa tornou mais difícil denunciar e apelar contra decisões sobre discurso de ódio. O Facebook disse que "ao combater o discurso de ódio, nosso objetivo é reduzir sua prevalência, que é a quantidade dele que as pessoas realmente veem". A empresa acrescentou que o discurso de ódio responde por apenas 0,05% do que os usuários veem, número que ela reduziu em 50% nos últimos três trimestres.

O Facebook se atrapalhou enquanto o Capitólio pegava fogo

Os documentos revelam a luta do Facebook para conter a explosão de discurso de ódio e desinformação em sua plataforma em torno do motim de 6 de janeiro em Washington, gerando turbulência interna.

Os memorandos mostram que a empresa desligou certas salvaguardas de emergência na sequência da eleição de novembro de 2020, mas teve dificuldade para reativar algumas quando a violência explodiu. Uma avaliação interna constatou que a rápida implementação das medidas foi dificultada pela espera da aprovação da equipe de política.

Mesmo as ações proativas falharam em surtir o efeito desejado. Em outubro de 2020, o Facebook anunciou publicamente que deixaria de recomendar "grupos cívicos", que discutem questões sociais e políticas. No entanto, devido a dificuldades técnicas na implementação da mudança, 3 milhões de usuários dos Estados Unidos ainda foram encaminhados para pelo menos um dos 700 mil grupos cívicos identificados diariamente entre meados de outubro de 2020 e meados de janeiro de 2021, de acordo com uma nota de pesquisa.

A resposta do Facebook

O Facebook se recusou a comentar alguns dos detalhes das denúncias, dizendo que não colocava o lucro à frente da segurança ou do bem-estar das pessoas e que "a verdade é que investimos US$ 13 bilhões e temos mais de 40 mil pessoas para fazer um trabalho: manter as pessoas em segurança no Facebook".

Hannah Murphy, Martha Muir, Dave Lee e Madhumita Murgia

Tradução de Luiz Roberto M. Gonçalves

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.