Maioria das big techs não tem regras para evitar um novo 8 de janeiro, diz estudo

Relatório do InternetLab aponta que políticas das plataformas são genéricas e restritas a período eleitoral

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo

A maioria das plataformas de internet não tem políticas para evitar que sejam usadas em um novo 8 de janeiro, mostra estudo do InternetLab.

Segundo o levantamento, todas as principais plataformas, com exceção do Telegram, têm políticas de integridade eleitoral, que vedam, entre outras coisas, divulgar datas e horários errados do pleito ou alegações infundadas de fraude.

No entanto, a maioria não possui regras específicas o suficiente para lidar com incitação de violência após o resultado eleitoral ou contra a transmissão pacífica de poder —conteúdo que se alastrou pelas redes sociais nos dias que antecederam os ataques a Brasília em 8 de janeiro deste ano.

Pessoas usando camisetas do Brasil se aglomeram em sala
Bolsonaristas invadem salão principal do Palácio do Planalto - Gabriela Biló - 8.jan.2023/Folhapress

As únicas plataformas que têm políticas específicas para tentativas de ruptura democrática após as eleições são Instagram, Facebook e X (ex-Twitter), segundo o estudo "Compromisso com a democracia: Integridade eleitoral e o Estado democrático de Direito nas políticas de plataformas digitais".

Já o TikTok, YouTube, LinkedIn e Kwai tinham, entre junho de 2022 e janeiro de 2023, políticas relacionadas à manutenção da integridade do debate público durante as eleições e a inibição de atos que possam impedir ou dificultar o processo eleitoral, porém não possuíam normas sobre insurreições após a divulgação dos resultados, afirma o relatório.

"As plataformas têm políticas mais genéricas sobre ruptura democrática e não deixam claro para os usuários e para os moderadores o que é permitido, [o que] deixa todos em um limbo", diz Ester Borges, coordenadora de pesquisa do InternetLab e do relatório.

"É uma grande preocupação entrar em mais uma eleição com regras insuficientes. E, além disso, os discursos estão sempre um passo à frente da regulação. Esperamos em 2024 problemas maiores ou tão grandes quanto tivemos em 2022."

De acordo com o InternetLab, é necessário que as políticas sejam sensíveis a contextos de pré-violência, que tornem as plataformas capazes de avaliar, previamente e de maneira abrangente, o perigo de cada discurso, com sanções gradativas.

No caso dos aplicativos de mensagem, o WhatsApp proíbe o uso abusivo da plataforma em contexto eleitoral, com banimento de mensagens em massa; limites mais rígidos para mensagens virais, acompanhadas de etiquetas de encaminhamento; ferramentas para verificar as informações recebidas por encaminhamento e parcerias com agências de checagem de fatos.

Já o Telegram proibia apenas o envio de spam e não tinha políticas específicas para integridade cívica e eleitoral.

Outro problema apontado pelo estudo do InternetLab é a restrição das normas aos períodos eleitorais.

O X (ex-Twitter) é o único que proíbe "informações enganosas sobre desfechos de atos cívicos" e "afirmações contestadas que podem minar a própria fé no processo" durante o período eleitoral e enquanto a plataforma considerar necessário.

O relatório recomenda que as normas não devem ser aplicadas apenas durante períodos de grandes eventos, como eleições e plebiscitos. "Pelo contrário, é essencial criar um ambiente permanentemente propício ao debate político íntegro, protegendo os direitos e a dignidade de todos os usuários."

Outro diagnóstico do relatório é a necessidade de cuidados específicos para anúncios eleitorais. A lei autoriza a propaganda eleitoral impulsionada pelos partidos ou candidatos em plataformas digitais, mas veda "a divulgação ou compartilhamento de fatos sabidamente inverídicos ou gravemente descontextualizados que atinja a integridade do processo eleitoral".

No entanto, as empresas regulam apenas o procedimento de veiculação de anúncios, e não têm medidas específicas para propaganda com desinformação ou questionamento à integridade eleitoral, segundo o estudo. "A ausência de parâmetros, nesse caso, é ainda mais sensível, dado que as plataformas lucram com essas publicações monetizadas", diz o texto.

O Facebook, o Instagram, o YouTube e o Kwai possuíam políticas direcionadas à propaganda eleitoral no período. No caso do Facebook e do Instagram, além do processo de autorização para veiculação de anúncios, havia a obrigação de rotulagem do anúncio como "propaganda eleitoral". Existia ainda a biblioteca de anúncios, que armazena propaganda eleitoral por sete anos.

O InternetLab recomenda que, além disso, as plataformas devam proibir anúncios que questionem a integridade eleitoral e a democracia. E também que, seguindo o exemplo da eleição de 2020 nos EUA, as plataformas poderiam restringir a circulação de anúncios eleitorais em períodos próximos aos dias de votação.

O X (ex-Twitter), o TikTok e o LinkedIn proíbem a propaganda eleitoral em suas plataformas.

O levantamento também questiona a transparência das medidas de moderação de conteúdo das plataformas. Normalmente, elas divulgam apenas o número de conteúdos removidos, mas não quantos foram visualizados e denunciados nem o universo total de publicações.

Em relação a perfis de candidatos e figuras públicas, seria necessário ter regras específicas e moderação rápida, dado o grande alcance e influência das publicações dessas contas, diz o estudo. Mas também é crucial assegurar isonomia na moderação dos diferentes perfis de candidatos.

Em email enviado à Folha, o YouTube contestou as conclusões do estudo e afirmou ter políticas específicas para conteúdo que incentiva insurreições após eleições. "Conteúdo que engana os eleitores sobre como votar ou incentiva a interferência no processo democrático não é permitido no YouTube, e nossas Diretrizes da Comunidade se aplicam a conteúdo eleitoral. Temos uma série de políticas que abordam o potencial incitamento à violência num contexto eleitoral", disse a empresa. De acordo com o YouTube, sua política de conteúdo violento ou gráfico proíbe vídeos que incitem a cometer atos violentos. "Assim que os ataques começaram, em 8 de janeiro, nossas equipes começaram a remover conteúdo que violasse nossas Diretrizes da Comunidade, incluindo transmissões ao vivo e vídeos que apoiavam ou elogiavam os ataques, incitando outras pessoas a cometerem atos violentos."

A plataforma também discorda da afirmação do estudo de que as empresas regulam apenas o procedimento de veiculação de anúncios, e não têm medidas específicas para propaganda com desinformação ou questionamento à integridade eleitoral. Segundo o YouTube, para serem adequados para publicidade, os vídeos devem obedecer a políticas que proíbem "alegações comprovadamente falsas que possam prejudicar significativamente a participação ou a confiança num processo eleitoral ou democrático".

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.