Facebook classifica confiabilidade de usuários em escala de zero a um

Sistema de classificação, que não havia sido revelado até agora, foi desenvolvido nos últimos 12 meses

Símbolo de "curtir" do Facebook em neon
Facebook desenvolveu o sistema de avaliação de reputações como parte de seu esforço de combate às notícias falsas - Benoit Tessier/Reuters
 
Elizabeth Dworkin
São Francisco | The Washington Post

O Facebook começou a aplicar um indicador de reputação aos seus usuários, classificando sua confiabilidade em escala de zero a um.

O sistema de classificação, que não havia sido revelado até agora e foi desenvolvido pelo Facebook nos últimos 12 meses, mostra que a luta contra a manipulação dos sistemas da tecnologia evoluiu para incluir a mensuração da credibilidade dos usuários, a fim de identificar agentes nocivos.

O Facebook desenvolveu o sistema de avaliação de reputações como parte de seu esforço de combate às notícias falsas, disse Tessa Lyons, a gerente de produto encarregada de combate à desinformação, em entrevista.

Como outras empresas de tecnologia, o Facebook depende de que os usuários denunciem conteúdo problemático —mas à medida que a companhia passou a oferecer mais opções aos usuários, alguns deles começaram a denunciar conteúdo como falso indevidamente, uma nova reviravolta na guerra da informação, que a companhia passou a ter de levar em conta.

"Não é incomum que as pessoas nos digam que algo é falso simplesmente porque discordam da premissa do artigo ou porque estão intencionalmente atacando um determinado provedor de conteúdo", disse Lyons.

A classificação de confiabilidade dos usuários em escala de zero a um não pretende ser um indicador absoluto sobre a confiabilidade de um usuário, disse Lyons, e tampouco existe uma classificação unificada de reputação designada para eles.

O indicador é um entre milhares de novas pistas comportamentais que o Facebook agora leva em conta em seu esforço para compreender riscos.

O Facebook também vem monitorando que usuários têm a propensão de apontar como problemático conteúdo postado por terceiros, e que provedores de conteúdo são considerados confiáveis pelos usuários.

Não se sabe que outros critérios o Facebook mede para determinar a confiabilidade de um usuário, se todos os usuários estão sendo classificados, e de que maneira essa classificação é usada.

As avaliações de reputação surgem em um momento no qual o Vale do Silício, diante de interferência política russa, notícias falsas e agentes ideológicos que abusam das normas das companhias, recalibra sua abordagem quanto a riscos, e encontra maneiras não testadas, e propelidas por algoritmos, de compreender o que representa uma ameaça.

O Twitter, por exemplo, agora leva em conta o comportamento das demais contas na rede uma pessoa para determinar se os tuítes dessa pessoa devem ser divulgados.

Mas o funcionamento desses novos indicadores de credibilidade é altamente opaco, e as empresas preferem não discuti-los, em parte porque se o fizerem podem estimular manipulação adicional  —um problema que as empresas enfrentam com cada vez mais frequência ao tentar responder aos apelos por mais transparência quanto ao seu processo decisório.

"Não saber como [o Facebook] nos julga é exatamente o que nos causa desconforto", disse Claire Wardle, diretora do laboratório de pesquisa First Draft, na Escola Kennedy de Administração Pública, Universidade Harvard, sobre os esforços da companhia para avaliar a credibilidade dos usuários. O laboratório que ela dirige é parceiro de verificação de fatos do Facebook.

"Mas a ironia é que eles não podem revelar de que maneira estão nos julgando, porque se o fizerem os algoritmos que desenvolveram serão manipulados."

O sistema que o Facebook criou para que usuários denunciem conteúdo potencialmente inaceitável se tornou um campo de batalha, de muitas maneiras.

A conta Sleeping Giants do Twitter, operada por ativistas, apelou aos seus seguidores que se mobilizassem para conseguir que as empresas de tecnologia agissem quanto a Alex Jones, proponente de inúmeras teorias de conspiração, e seu site Infowars. Isso resultou em um dilúvio de denúncias de retórica do ódio e fez com que Jones e o Infowars fossem banidos do Facebook e de outras redes sociais.

Quando isso aconteceu, os executivos do Facebook questionaram se as denúncias coletivas do conteúdo de Jones não eram parte de um esforço para iludir os sistemas do Facebook. Denúncias falsas também de tornaram uma das táticas usadas nas campanhas de assédio da extrema-direita, dizem especialistas.

As empresas de tecnologia têm um longo histórico de usar algoritmos para fazer previsões sobre o comportamento das pessoas, por exemplo sobre a probabilidade de que comprem dados produtos, ou de que usem uma identidade falsa.

Mas diante do cenário atual de desinformação cada vez mais intensa, elas vêm realizando escolhas editoriais cada vez mais sofisticadas sobre o que é confiável.

Em 2015, o Facebook passou a oferecer aos usuários a possibilidade de reportar posts que acreditassem ser falsos. Uma aba no canto superior direito de cada post do Facebook permite que as pessoas reportem conteúdo problemático por diversos motivos, entre os quais pornografia, violência, vendas não autorizadas, retórica do ódio e notícias falsas.

Lyons diz ter percebido rapidamente que muita gente estava denunciando posts como falsos simplesmente por discordarem do conteúdo. Como o Facebook encaminha posts denunciados como falsos a verificadores de fatos terceirizados, ela disse que era importante criar sistemas que avaliem a probabilidade de que uma publicação ser falsa, para fazer uso eficiente do tempo dos verificadores de fatos. 

"Um dos sinais que usamos é a forma pela qual as pessoas interagem com artigos noticiosos", afirmou Lyons em um e-mail posterior à entrevista.

"Por exemplo, se alguém havia identificado um artigo como falso anteriormente, e a falsidade do artigo foi confirmada pelos verificadores de fatos, futuras denúncias da pessoa quanto a notícias falsas receberiam peso maior do que as denúncias de alguém que classifique muitos artigos como falsos indiscriminadamente, entre os quais artigos que sejam mais tarde confirmados como verazes."

O indicador é um entre muitos sinais que a empresa usa para alimentar algoritmos que ajudam a decidir que artigos devem ser submetidos a revisão.

"Gosto de brincar que, se as pessoas só reportassem coisas que são [de fato] falsas, meu trabalho seria superfácil!", disse Lyons na entrevista. "Mas as pessoas muitas vezes denunciam coisas só porque discordam delas."

Ela se recusou a informar que outros sinais a empresa usava para determinar confiabilidade, citando a preocupação de que isso possa facilitar o trabalho dos agentes nocivos.

OUTRO LADO

O Facebook afirmou na tarde desta terça-feira (21), em resposta ao The Washington Post, que não tem uma  "classificação geral de reputação".   

A empresa diz que a escala de zero a um só é aplicada a pessoas que denunciam notícias falsas na plataforma.

Segundo o Facebook, a nota é um dos pontos levados em consideração quando o Facebook identifica se uma pessoa denuncia uma notícia falsa porque discorda do conteúdo ou porque, de fato, ela é inverídica.

"O que estamos fazendo é: desenvolvemos um processo para proteger nossa comunidade de pessoas que denunciam de forma indiscriminada conteúdos como sendo falsos na tentativa de burlar as regras da plataforma. Fazemos isso para ter certeza de que nossa luta contra a desinformação seja mais efetiva", disse a empresa em nota. 

A empresa envia a checadores terceirizados todas as denúncias que recebe. Dar uma nota, segundo o Facebook, é uma espécie de filtro para colaborar com o trabalho desses checadores.

Também reitera que esse grau de confiabilidade não é absoluto. Diz que outros fatores são levados em consideração, mas que eles não podem ser divulgados porque correm o risco de serem manipulados, como foi explicado na reportagem.

 Tradução de Paulo Migliacci 

Tópicos relacionados

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.