Descrição de chapéu The New York Times Facebook

Facebook na Índia hospedou desinformação, ataques de ódio e cenas de violência

Funcionária da empresa se passou por usuária indiana e detectou poucos esforços da rede para reduzir conteúdos impróprios

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Sheera Frenkel Davey Alba
San Francisco | The New York Times

Em 4 de fevereiro de 2019, uma pesquisadora do Facebook criou uma nova conta na rede social para testar como seria a experiência de um usuário que vive em Kerala, na Índia.

Nas três semanas seguintes, a conta operou conforme uma regra simples: siga todas as recomendações geradas pelos algoritmos do Facebook para ingressar em grupos, assistir a vídeos e explorar novas páginas do site. O resultado foi uma inundação de discurso de ódio, desinformação e celebrações de violência, que foram documentadas em um relatório interno do Facebook publicado no final daquele mês.

"Seguindo o feed de notícias desse usuário de teste, vi mais imagens de pessoas mortas nas últimas três semanas do que em toda a minha vida", escreveu a pesquisadora do Facebook.

A bandeira da Índia é vista por meio de um logotipo do Facebook impresso em 3D
A bandeira da Índia é vista por meio de um logotipo do Facebook impresso em 3D - Dado Ruvic / Ilustração / Reuters

O relatório foi um entre dezenas de estudos e memorandos escritos por funcionários do Facebook que lidam com os efeitos da rede social na Índia. Eles oferecem claras evidências de uma das críticas mais sérias feitas por ativistas de direitos humanos e políticos contra a empresa de alcance global: ela entra num país sem compreender bem seus efeitos potenciais na cultura e na política local e não consegue empregar recursos para agir sobre os problemas quando eles ocorrem.

Com 340 milhões de pessoas usando as várias plataformas de rede social do Facebook, a Índia é o maior mercado da empresa. E seus problemas no subcontinente apresentam uma versão ampliada das questões que ela enfrentou no mundo todo, agravados pela falta de recursos e pela inexperiência nas 22 línguas oficialmente reconhecidas da Índia.

Os documentos internos obtidos por um consórcio de organizações de notícias que incluiu o The New York Times fazem parte de um conjunto de documentos chamado de "The Facebook Papers" (Os Papéis do Facebook, em inglês). Eles foram coletados por Frances Haugen, uma ex-diretora de produto do Facebook que se tornou uma denunciante e recentemente depôs perante uma subcomissão do Senado dos Estados Unidos sobre a empresa e suas plataformas de rede social.

As referências à Índia se espalhavam entre os documentos apresentados por Haugen à Comissão de Valores Mobiliários em uma reclamação no início deste mês.

Os documentos incluem relatórios sobre como robôs (bots) e contas falsas ligadas ao partido no governo do país e a figuras da oposição estavam causando estragos nas eleições nacionais. Eles também detalham como um plano defendido pelo CEO do Facebook, Mark Zuckerberg, para se concentrar em "interações sociais significativas", ou comunicações entre amigos e familiares, estava levando a mais desinformação na Índia, especialmente durante a pandemia.

O Facebook não tinha recursos suficientes na Índia e não foi capaz de lidar com os problemas que introduziu no país, segundo seus documentos. Oitenta e sete por cento do orçamento global da empresa para o tempo gasto na classificação de desinformação se destinam aos Estados Unidos, enquanto apenas 13% são reservados para o resto do mundo –embora os usuários norte-americanos representem apenas 10% dos usuários ativos diários da rede social, conforme um documento que descreve a alocação de recursos do Facebook.

Andy Stone, porta-voz da empresa, disse que os números estão incompletos e não incluem os parceiros de checagem de fatos da empresa –a maioria dos quais está fora dos Estados Unidos.

Os funcionários do Facebook realizaram vários testes e estudos de campo na Índia durante vários anos. Esse trabalho aumentou antes das eleições nacionais de 2019 no país; no final de janeiro daquele ano, um punhado de funcionários do Facebook viajou até lá para se encontrar com colegas e conversar com dezenas de usuários locais do Facebook.

De acordo com um memorando escrito após a viagem, um dos principais pedidos dos usuários na Índia foi que o Facebook "tomasse medidas em relação aos tipos de informações erradas que estão relacionadas a danos no mundo real, especificamente política e tensão de grupos religiosos".

Dez dias depois que a pesquisadora abriu a conta falsa para estudar a desinformação, um atentado suicida na disputada região de fronteira da Caxemira desencadeou uma série de violências e um aumento de acusações, desinformação e conspirações entre cidadãos indianos e paquistaneses.

Após o ataque, conteúdo contrário ao Paquistão começou a circular nos grupos recomendados pelo Facebook nos quais a pesquisadora tinha entrado. Muitos desses grupos tinham dezenas de milhares de usuários, observou ela. Um relatório diferente do Facebook, publicado em dezembro de 2019, descobriu que os usuários indianos da plataforma tendiam a se juntar a grandes grupos, sendo o tamanho médio no país de 140 mil membros.

Postagens visuais, incluindo um meme mostrando a decapitação de um paquistanês e cadáveres embrulhados em lençóis brancos no chão, circularam nos grupos aos quais ela participou.

Depois que a pesquisadora compartilhou seu estudo de caso com colegas de trabalho, estes comentaram no relatório publicado que estavam preocupados com a desinformação sobre as próximas eleições na Índia.

Dois meses depois, após o início das eleições nacionais na Índia, o Facebook implementou uma série de medidas para conter o fluxo de desinformação e o discurso de ódio no país, de acordo com um documento interno denominado Estudo de Caso da Eleição Indiana.

O trabalho pintou um quadro otimista dos esforços do Facebook, incluindo o acréscimo de parceiros para verificação de fatos –a rede de terceiros com a qual a empresa trabalha para checar fatos– e a quantidade crescente de desinformação removida. Ele também observou que o Facebook tinha criado uma "lista de permissão política para limitar o risco de relações-públicas", essencialmente uma lista de políticos que receberam uma isenção especial da verificação de fatos.

O estudo não observou o imenso problema que a empresa enfrentava com os "bots" na Índia, nem questões como a supressão de eleitores.

Durante a eleição, o Facebook viu um pico de bots (ou ontas falsas) vinculadas a vários grupos políticos, bem como esforços para espalhar informações incorretas que poderiam ter afetado a compreensão das pessoas sobre o processo de votação.

Em um relatório separado produzido após as eleições, o Facebook descobriu que mais de 40% das principais visualizações ou impressões, em Bengala Ocidental, foram "falsas/inautênticas". Uma conta não autêntica acumulou mais de 30 milhões de impressões.

Um relatório publicado em março mostrou que muitos dos problemas citados durante as eleições de 2019 persistiam. Cinco meses atrás, o Facebook ainda lutava para remover com eficiência o discurso de ódio contra os muçulmanos.

Outro relatório da empresa detalhou os esforços do Bajrang Dal, grupo extremista ligado ao partido político nacionalista hindu Bharatiya Janata, para publicar postagens contendo narrativas contra muçulmanos na plataforma.

O Facebook está considerando designar o grupo como organização perigosa porque está "incitando à violência religiosa" na plataforma, mostrou o documento. Mas ainda não o fez.

"Junte-se ao grupo e ajude a administrar o grupo; aumentem o número de membros do grupo, amigos", dizia uma postagem procurando recrutas no Facebook para divulgar as mensagens do Bajrang Dal. "Lute pela verdade e pela justiça até que os injustos sejam destruídos", acrescentava.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.