Revisão da liberdade de expressão online nos EUA pode ser a maior desde anos 90

Casos analisados pela Suprema Corte questionam leis e podem alterar responsabilidades das redes

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

David McCabe
Washington | The New York Times

Redes sociais gigantes como Facebook, Twitter e Instagram operam há anos sob dois princípios cruciais.

O primeiro é que as plataformas têm o poder de decidir quais conteúdos conservar online e quais remover, sem fiscalização governamental. O segundo é que os sites não podem ser legalmente responsabilizados pela maior parte do que seus usuários postam online. Isso protege as empresas contra ações judiciais por discurso difamatório, conteúdos extremistas e danos no mundo real ligados às suas plataformas.

A Suprema Corte dos EUA está prestes a rever essas normas, potencialmente levando à reformulação mais importante das doutrinas que regem o discurso online desde que autoridades e tribunais americanos decidiram submeter a web a alguns regulamentos, nos anos 1990.

-
A Suprema Corte dos EUA deve ouvir dois casos que desafiam leis do Texas e da Flórida - Adam Maida/The New York Times

Na sexta-feira (20), a Suprema Corte iria discutir se deve ouvir duas ações que questionam leis do Texas e da Flórida que proíbem plataformas online de remover certos conteúdos políticos. Em fevereiro, a Corte vai ouvir uma ação que questiona a Seção 230, um estatuto de 1996 que protege as plataformas de responsabilidade pelos conteúdos postados por seus usuários.

Existe uma possibilidade de os processos modificarem a postura legal de isenção adotada majoritariamente pelos EUA em relação ao discurso online, potencialmente subvertendo os negócios de TikTok, Twitter, Snap e Meta, proprietária do Facebook e do Instagram.

"É um momento em que tudo pode mudar", disse Daphne Kelly, advogada que já trabalhou para o Google e hoje dirige um programa no Centro de Política Cibernética da Universidade Stanford.

Os processos fazem parte de uma disputa legal crescente sobre como lidar com discursos online nocivos.

Nos últimos anos, à medida que Facebook e outros sites atraíram bilhões de usuários e se converteram em canais influentes de comunicação, o poder que exercem passou a ser alvo de atenção. Começou a ser questionada a possível influência indevida das redes em eleições, genocídios, guerras e debates políticos.

O processo na Suprema Corte que questiona a Seção 230 provavelmente terá muitos efeitos em cascata. Enquanto jornais e revistas podem ser processados em função dos conteúdos que publicam, a Seção 230 protege as plataformas online contra ações judiciais envolvendo a maioria do conteúdo postado por seus usuários. Ela também protege as plataformas contra ações quando elas removem conteúdos.

Durante anos juízes citaram essa lei ao rejeitarem queixas contra Facebook, Twitter e YouTube, garantindo que as empresas não fossem legalmente responsabilizadas por cada atualização de status, post e vídeo que viralizava. Críticos disseram que a lei equivalia a um cartão de "saia da prisão sem pagar".

"Se elas não forem responsabilizadas minimamente por quaisquer dos danos que são facilitados, as plataformas basicamente estarão autorizadas a ser tão imprudentes quanto possível", disse Mary Anne Franks, professora de direito na Universidade de Miami.

A Suprema Corte havia previamente se negado a ouvir várias outras ações judiciais que contestaram o estatuto. Em 2020, ela rejeitou uma ação judicial movida pelas famílias de pessoas mortas em ataques terroristas. As famílias acusaram o Facebook de ser responsável pela promoção de conteúdo extremista.

Em 2019, a corte se negou a ouvir o caso de um homem dizendo que seu ex-namorado usara o app de relacionamentos Grindr para enviar pessoas para assediá-lo. O homem processou a plataforma, dizendo que era um produto defeituoso. Mas em 21 de fevereiro o tribunal pretende ouvir a ação de Gonzalez v. Google, movida pela família de um americano morto em Paris num ataque do Estado Islâmico.

Na ação, a família disse que a Seção 230 não deve proteger o YouTube da acusação de que o site de vídeos apoiou o terrorismo quando seus algoritmos recomendaram conteúdo do Estado Islâmico a seus usuários. A ação argumenta que recomendações podem ser vistas como uma forma própria de conteúdo produzido pela plataforma, o que os removeria da proteção proporcionada pela Seção 230.

No dia seguinte a Corte deve analisar uma segunda ação, Twitter v. Taamneh, que trata da questão quando as plataformas são legalmente responsáveis por dar apoio ao terrorismo, conforme as leis federais.

Eric Schnapper, professor de direito da Universidade de Washington e um dos advogados que representam os querelantes nas duas ações, disse em entrevista que os argumentos apresentados são pontuais demais para resultar em alterações para grandes partes da internet. "O sistema todo não vai desabar."

Mas a advogada chefe do Google, Halimah DeLaine Prado, disse que "qualquer decisão negativa da corte nessa ação, quer tenha âmbito reduzido ou não, vai alterar fundamentalmente o modo de funcionamento da internet", já que pode resultar na remoção de algoritmos de recomendação que são "fundamentais".

O Twitter não respondeu a um pedido de comentário. Empresas de tecnologia também estão acompanhando de perto os processos movidos no Texas e na Flórida. Depois de Twitter e Facebook terem banido o então presidente Donald Trump após a insurreição de 6 de janeiro de 2021 no Capitólio, os dois estados sancionaram leis proibindo as redes sociais de remover certos conteúdos.

A lei do Texas autoriza os usuários a processarem uma grande plataforma online caso ela remova sua postagem em função do "ponto de vista" que ele expressa. A lei da Flórida prevê multas para plataformas que barram permanentemente as contas de um candidato a um cargo público no estado.

-
Mensagem do presidente Donald Trump sobre a invasão ao Capitólio é exibida na sala de imprensa da Casa Branca - Pete Marovich - 20.jan.2023/The New York Times

A NetChoice e a CCIA, grupos fundados por Facebook, Google, Twitter e outras empresas de tecnologia, foram à Justiça em 2021 para bloquear as leis. Os grupos argumentaram que as empresas têm o direito constitucional de decidir quais conteúdos abrigar em suas plataformas.

"Trata-se de uma maneira indireta de punir empresas por exercer seus direitos previstos pela Primeira Emenda constitucional com os quais outros discordam", disse Chris Marchese, advogado da NetChoice.

Um juiz federal na Flórida concordou com os grupos das empresas, determinando que a lei infringe os direitos desfrutados pelos termos da Primeira Emenda, e o 11º Tribunal de Apelações confirmou a maior parte da decisão. Mas o 5º Tribunal de Apelações confirmou a lei do Texas, rejeitando "a ideia de que as corporações tenham um direito amplo previsto na Primeira Emenda de censurar o que as pessoas dizem".

Assim, a Suprema Corte se vê pressionada a intervir. Quando diferentes tribunais federais dão respostas distintas à mesma pergunta, a Suprema Corte frequentemente opta por dar a palavra final na disputa, disse Jeff Kosseff, professor de direito de segurança cibernética na Academia Naval dos Estados Unidos.

Tradução de Clara Allain

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.