Siga a folha

STF deve ter arcabouço legal mais robusto para atacar fake news, diz advogada

Filha de ministro do tribunal, Luna Barroso defende inquérito e propõe em livro órgão regulador de plataformas digitais

Assinantes podem enviar 5 artigos por dia com acesso livre

ASSINE ou FAÇA LOGIN

Continue lendo com acesso ilimitado.
Aproveite esta oferta especial:

Oferta Exclusiva

6 meses por R$ 1,90/mês

SOMENTE ESSA SEMANA

ASSINE A FOLHA

Cancele quando quiser

Notícias no momento em que acontecem, newsletters exclusivas e mais de 200 colunas e blogs.
Apoie o jornalismo profissional.

São Paulo

O inquérito das fake news é lícito e importante, mas o STF (Supremo Tribunal Federal) e o TSE (Tribunal Superior Eleitoral) terão maior respaldo para deter milícias de notícias falsas se houver um arcabouço legal mais robusto para isso, diz a advogada Luna Van Brussel Barroso.

Advogada e mestre em direito público pela Uerj (Universidade do Estado do Rio de Janeiro), ela é autora do recém-lançado livro "Liberdade de Expressão e Democracia na Era Digital" (editora Fórum). A obra conta com apresentação do ministro do STF Luís Roberto Barroso, de quem Luna é filha.

A advogada Luna Van Brussel Barroso, autora de livro sobre liberdade de expressão - Zô Guimarães/Folhapress

O livro trata dos desafios à liberdade de expressão trazidos pelas plataformas digitais e propõe uma "autorregulação regulada" do setor, além de analisar casos como o inquérito das fake news, que atingiu congressistas, empresários e blogueiros bolsonaristas.

Vista por parte da sociedade como importante para proteger as instituições, a iniciativa do STF é chamada de autoritária por apoiadores do presidente Jair Bolsonaro (PL).

A advogada elogia a relevância do inquérito, mas também faz ressalvas. No livro, ela critica uma das primeiras decisões do procedimento, a censura a uma reportagem sobre o ministro Dias Toffoli, e aponta falta de fundamentação em algumas decisões sobre remoção de conteúdo.

Em um cenário mais amplo, a advogada avalia em entrevista à Folha que é muito difícil chegar a um consenso unânime em casos mais complexos sobre liberdade de expressão.

Por isso, ela defende que as plataformas tenham autonomia para moderar conteúdo, sugere um órgão para regular questões mais gerais do mercado e propõe uma medida de emergência contra a viralização de desinformação.

Que desafios as redes sociais trazem para o debate sobre liberdade de expressão? Elas trouxeram uma série de coisas positivas, como o aumento da participação no debate público e o fomento ao pluralismo político. Mas, por outro lado, também deram voz a discurso ilícito e abusivo.

Agora temos muita gente tentando captar a atenção dos leitores e dos usuários e, com isso, há um excesso de conteúdo que polariza, que apela para a emoção e não a razão. Além disso, tem os sistemas de recomendação que criam feeds personalizados. Eles são muito focados nos nossos interesses e podem limitar a interação com visões diferentes.

Um dos temas de que você trata no livro é a regulação. Como avalia ela hoje no Brasil? O que deveria mudar? A medida mais importante da regulação é a transparência, mas transparência também traz riscos. Se dermos informação demais a todos sobre como funcionam os sistemas de recomendação e os algoritmos, a gente permite que atores mal-intencionados tentem manipular esses sistemas para disseminar discurso ilícito e discurso abusivo.

Então, é importante pensar em transparência em camadas. Que tipo de informação deve ser acessível a todos os usuários? Por exemplo, termos de uso claros, exemplos de como as regras de moderação de conteúdos são aplicadas e alguns casos concretos para que os usuários entendam.

Órgãos mais técnicos de regulação devem receber informações mais detalhadas sobre como funcionam os sistemas de recomendação e sobre a aplicação concreta dos termos e condições, tendo acesso ao conteúdo que foi analisado e removido para poder entender como os termos e condições estão sendo aplicados.

Fora isso, deve-se pensar em devido processo legal. Se um usuário teve um comentário ou uma publicação removida, ele deve poder recorrer à plataforma para que ela analise.

Qual seria esse órgão de controle? A intervenção excessiva do Estado sobre a liberdade de expressão foi historicamente vista com resistência, porque ele é um ator diretamente interessado em regular o debate público. Então proponho um modelo de autorregulação regulada.

Nesse modelo, haveria um órgão com composição majoritária da sociedade civil, com capacidade técnica para entender o funcionamento de algoritmos e tomar as decisões mais detalhadas sobre a regulação desse sistema. O Comitê Gestor da Internet no Brasil poderia ser um órgão a exercer esse papel? Acho que teria de ser capacitado para essa função, mas me parece que atribuir essa função a ele reduziria custos de criar um novo órgão para exercer esse monitoramento.

Segundo o livro, esse órgão trataria de diretrizes mais gerais. A quem caberia decidir a regra para apagar um post ou outro? Decisões de moderação de conteúdo cabem às plataformas por dois motivos principais. O primeiro é a quantidade de conteúdo publicada. E o segundo é que, em liberdade de expressão, a gente não quer regras únicas. Em alguns casos, o abuso é notório, e aí provavelmente todas as plataformas chegariam à mesma resposta de que há abuso.

Em outros, evidentemente não há abuso e provavelmente todas as plataformas também chegariam a essa conclusão. Só que muitos casos estão em uma zona cinzenta, e me parece positivo que algumas plataformas considerem determinado discurso ilícito, porque adotam uma visão mais restritiva, e outras plataformas o considerem lícito porque adotam uma visão mais liberal da liberdade de expressão.

Ninguém imaginaria que a gente gostaria de ter um órgão definindo como cada jornal deve estabelecer a sua linha editorial. É essa mesma lógica.

De forma geral, para o cidadão comum, como saber quando uma postagem ultrapassa o limite da liberdade de expressão? Quando a gente tem desacordo moral razoável sobre a melhor resposta, é preciso ter garantias procedimentais que deem legitimidade às decisões das plataformas, que sejam suficientes para dizer aos usuários: mesmo que vocês discordem do resultado dessa decisão, vocês concordam que eu tenho legitimidade para definir as regras.

A decisão de suspensão do [então] presidente Donald Trump nos Estados Unidos [das redes sociais] foi considerada acertada por algumas pessoas, e me incluo nesse grupo, mas desagradou outras que estudam a liberdade de expressão, que são acadêmicas e desinteressadas do debate político de fundo.

Então, a resposta à sua pergunta é: não tem como alcançar consensos substantivos nos casos mais complexos sobre liberdade de expressão. Por isso o foco tem que ser em processo legal para garantir isonomia, transparência e algum tipo de monitoramento sobre como essas decisões são tomadas.

E o Judiciário, onde deve entrar? O Judiciário entra na resolução de casos concretos de abuso da liberdade de expressão e na responsabilização dos usuários que fizeram publicações abusivas. De forma geral, eu acho que a sua atuação é a posteriori.

Por outro lado, a gente tem visto também o Supremo ocupando um espaço um pouco diferente no inquérito das fake news. Pela primeira vez, a corte assumiu um protagonismo de ir atrás das redes de disseminação de informação fraudulenta e tentar fazer uma contenção antes de essas notícias serem disseminadas.

Acho que a atuação do Judiciário é predominantemente à posteriori e a gente pode pensar em uma regulação pelo Legislativo para tentar melhorar esse cenário.

No livro você diz que a falta de remédios legais claros fortalece o discurso de quem busca apresentar o STF e o TSE como instituições autoritárias. Como deixar mais claros esses remédios? Estamos lidando com um cenário muito novo, e a resposta do Supremo foi positiva. A gente não viu isso acontecer, por exemplo, nos Estados Unidos, e a invasão do Capitólio foi uma grande surpresa em uma das maiores democracias do mundo e resultado de abusos da liberdade de expressão.

Então eu vejo o inquérito das fake news com bons olhos. Só que a falta de previsão legal gerou muitas críticas ao inquérito, então acho que a gente, como sociedade, precisa ter um debate sobre como incorporar essas previsões ao regimento interno do Supremo ou à legislação para dar um respaldo legal para responder a quem ataque a corte por cumprir esse papel.

A decisão do STF que validou o inquérito das fake news fez isso quanto a esse incidente específico, ao explicitar e delimitar o escopo desse procedimento e analisar o dispositivo que justificou a sua instauração.

Faltam fundamentos legais claros para quê? Quando o inquérito foi instaurado, ele teve como fundamento um dispositivo do regimento interno do Supremo. E foi a primeira vez que ele foi usado para essa finalidade. Foi uma resposta nova a um problema novo. Mas a gente, como sociedade, não tinha chegado a ter um debate concreto sobre a forma de responder a esses ataques.

Eu acho que o Supremo tem legitimidade para fazer isso, mas sem prejuízo de a gente ter debates para tentar criar um arcabouço mais robusto para fundamentar medidas que venham a ser adotadas.

No livro, você diz que é legítima atuação do Supremo e do TSE nesse caso, mas que tem algumas decisões que determinam a remoção de conteúdos sem fundamentação. Refere-se a algum caso específico? Não especificamente. O que acontece muitas vezes é que tem uma fundamentação implícita por causa de decisões anteriores ou do contexto anterior que já se conhece. Mas é importante garantir que todas as decisões venham acompanhadas de uma fundamentação sobre por que a restrição é justificada no caso concreto, justamente para garantir a legitimidade da decisão até para quem discorde.

Um dos pontos problemáticos que você cita é quando ocorre a remoção de um perfil inteiro e não de determinados conteúdos. Pode explicar melhor? Quando se remove uma publicação por excesso da liberdade de expressão, há uma violação concreta que pode ser ponderada com outros direitos fundamentais, como a preocupação de proteger a democracia.

Como regra geral, é uma medida mais proporcional. O que não significa dizer que eu ache que bloquear o perfil inteiro seja ilegítimo, porque a gente tem visto casos de abusos muito graves por atores repetidos. Mas tem que ficar demonstrado que há um abuso reiterado.

Acha que esse remédio de suspender perfis inteiros tem sido usado numa medida ponderada hoje em dia?
No caso do Judiciário, se eu me pautar pelo inquérito das fake news, acho que de uma forma geral, sim. Pelas plataformas, faço a ressalva de que não temos acesso a dados suficientes para fazer uma afirmação categórica. Como regra, acho que as plataformas enfrentam os mesmos dilemas que as democracias. Não acho que estejam diretamente interessadas em manipular resultados.

E há o que se fazer antes, para evitar o excesso de desinformação e notícias falsas que hoje prolifera nas plataformas? Em primeiro lugar, educação digital. Cultivar a prática de questionar o que se lê, recorrer a mais de uma fonte. Mas essa é uma resposta ineficiente a curto prazo. Então, fora isso, precisamos pensar em regras de responsabilização de quem cria notícias fraudulentas.

Esse me parece que tem que ser o foco da legislação e é o foco do inquérito das fake news, por isso é a minha opinião eminentemente positiva. Ir atrás dessas milícias, [adotar] medidas de desmonetização desse conteúdo. E uma proposta alternativa que discuto no livro é quase uma medida de emergência. Quando determinado conteúdo está sendo compartilhado mais de 'x' número de vezes por hora, vamos impedir o compartilhamento desse conteúdo até uma análise da plataforma. A gente para a visualização, a plataforma analisa o conteúdo e toma uma decisão expressa.


Raio-X

LUNA VAN BRUSSEL BARROSO, 26
Advogada, com atuação na área de direito público e digital. Mestre em direito público pela Uerj (Universidade do Estado do Rio de Janeiro) e doutoranda em direito constitucional na USP

Receba notícias da Folha

Cadastre-se e escolha quais newsletters gostaria de receber

Ativar newsletters

Relacionadas