Descrição de chapéu Facebook Meta tecnologia

Estudo indica que algoritmo do Facebook não altera crenças dos usuários

Trabalho publicado na Nature é resultado da colaboração entre a Meta e acadêmicos de universidades americanas

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Issam Ahmed
AFP

Um projeto de pesquisa sobre o Facebook em torno das eleições presidenciais de 2020 nos Estados Unidos publicou seus primeiros resultados nesta quinta-feira (27), que, contra todas as previsões, apontam que o algoritmo da rede social não influencia a opinião de seus usuários.

O trabalho é resultado da colaboração entre a Meta —empresa que controla o Facebook, o Instagram e o WhatsApp— e um grupo de acadêmicos de universidades americanas. Eles receberam amplo acesso a dados internos da companhia e inscreveram dezenas de milhares de usuários para realizar experimentos.

A equipe acadêmica escreveu quatro artigos sobre o papel do gigante das redes sociais na democracia dos EUA, que foram publicados nas revistas científicas Science e Nature.

Logo do Facebook - Dado Ruvic/Reuters

Em geral, o algoritmo acabou sendo "extremamente influente nas experiências das pessoas na plataforma", afirmaram os diretores do projeto, Talia Stroud, da Universidade do Texas em Austin, e Joshua Tucker, da Universidade de Nova York.

"Mas também sabemos que mudar o algoritmo mesmo por alguns meses não é provável que mude as atitudes políticas das pessoas", disseram, de acordo com as respostas dos usuários em pesquisas após participarem de experimentos com duração de três meses.

Os autores reconheceram que essa conclusão pode ser devido ao fato de que as mudanças não tiveram tempo suficiente para terem efeito, uma vez que o país vem se polarizando cada vez mais há décadas.

No entanto, "esses resultados questionam as narrativas populares que culpam as câmaras de eco das redes sociais pelos problemas da democracia americana contemporânea", escreveram os autores de um dos artigos publicados na Nature.

Bolhas

O algoritmo do Facebook utiliza aprendizado de máquina para decidir quais publicações aparecem primeiro nos feeds dos usuários com base em seus interesses. Ele tem sido acusado de criar "bolhas de filtros" e permitir a disseminação de informações incorretas.

Os pesquisadores recrutaram cerca de 40 mil voluntários por meio de convites em seus perfis do Facebook e Instagram e projetaram um experimento em que um grupo era exposto ao algoritmo normal, enquanto o outro via as publicações ordenadas das mais recentes às mais antigas.

Originalmente, o Facebook utilizava um sistema cronológico reverso e alguns observadores sugeriram que retornar a ele reduziria os efeitos prejudiciais das redes sociais.

A equipe descobriu que os usuários do grupo com feed cronológico passavam metade do tempo no Facebook e Instagram em comparação com os do grupo com o algoritmo.

No Facebook, os participantes com o feed cronológico viram mais conteúdos de amigos moderados, bem como mais fontes com audiências ideologicamente mistas. Mas o feed cronológico também aumentou a quantidade de conteúdo político e pouco confiável visto pelos usuários.

Apesar das diferenças, as mudanças não provocaram alterações detectáveis nas atitudes políticas medidas.

A Meta recebeu as conclusões gerais com satisfação. "Elas se somam a um número crescente de pesquisas que demonstram que há poucas evidências de que as redes sociais causem uma polarização prejudicial ou tenham um impacto significativo em atitudes, crenças ou comportamentos políticos chave", disse Nick Clegg, presidente de Assuntos Globais da Meta.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.