Descrição de chapéu
Várias autoras

Oito medidas para regular big techs garantindo liberdade de expressão

Remoção de conteúdos nocivos e responsabilização de plataformas devem nortear diretrizes para o ambiente digital

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

VÁRIAS AUTORAS (nomes ao final do texto)

[RESUMO] Pesquisadoras apresentam eixos para uma agenda brasileira de regulação das plataformas digitais com o intuito de enfrentar o cenário atual de ameaça à democracia, desinformação e extremismo. Atualizar o sistema de moderação das redes, para mitigar os riscos da circulação de conteúdo nocivo preservando a liberdade de expressão, está entre as prioridades.

Na última semana, a Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) promoveu uma conferência internacional para discutir diretrizes para a regulação de plataformas digitais com vistas à proteção da confiabilidade da informação, da liberdade de expressão e da garantia dos direitos humanos na internet. As diretrizes da organização estão sob consulta e serão debatidas regionalmente nos próximos meses.

Com a iniciativa, a Unesco chega a um debate que tem engajado democracias ao redor do mundo nos últimos anos: como conformar o modelo de negócio das plataformas digitais, calcado na maximização do engajamento por meio do uso de dados pessoais, às exigências de defesa da liberdade de expressão e de proteção efetiva de direitos humanos e da democracia.

Logotipo da Meta em Davos, na Suíça - Arnd Wiegmann - 22.mai.22/Reuters

As regulações passadas, pensadas para estágios anteriores do desenvolvimento da economia digital, apresentam hoje limitações diante dos complexos desafios que se apresentam —a desinformação, o discurso de ódio e o extremismo, por exemplo.

Em declaração enviada para a abertura da conferência, o presidente Lula (PT) defendeu a regulação de plataformas como passo vital para a defesa da democracia, tratando os ataques às instituições em Brasília em 8 de janeiro como o ápice de anos de campanhas de desinformação e incitação à violência.

O Brasil já protagonizou importantes movimentos de regulação do ambiente digital para garantir diversos direitos. O Marco Civil da Internet, aprovado em 2014, foi internacionalmente celebrado por assegurar direitos dos cidadãos usuários de internet em um momento em que todas as iniciativas de regulação se concentravam na criminalização e arriscavam penalizar usos triviais da internet.

Já naquele momento, o marco não dava conta de todos os desafios que se apresentavam. Hoje, com um mercado digital extremamente concentrado e com muitos aspectos da vida mediados por algoritmos e plataformas, a insuficiência é ainda mais evidente.

Diante disso, é preciso avaliar as principais estratégias para atualizar os marcos regulatórios existentes. Em alguns contextos, há uma tendência bem-vinda de regular a partir de novas abordagens que, além da previsão de um regime adequado de responsabilização das plataformas, tratem os riscos decorrentes de seus modelos de negócios estrutural e sistemicamente.

Além da questão fundamental sobre a circulação de conteúdo nocivo, elas têm como foco adequar aos direitos humanos e aos valores públicos o modelo de negócio das plataformas, que se concretiza por meio de influência relevante sobre fluxos de informação e de atenção online.

No contexto dessas novas tendências regulatórias, há importantes questões que devem ser abordadas. Por que um conteúdo é recomendado em detrimento de outro? Como é o processo de decisão sobre a moderação de conteúdo e como tornar esse processo mais responsivo e participativo? O que é ético e justo do ponto de vista de recomendações e de distribuição de anúncios? Que tipos de dados pessoais podem ser utilizados nesses processos? As regras devem se aplicar a todas as plataformas igualmente ou deve haver especificidades para as entrantes no mercado?

Iniciativas regulatórias contemporâneas, como as diretrizes da Unesco, a Lei de Serviços Digitais da União Europeia e as Diretrizes para Empresas e Direitos Humanos da ONU, têm se desenvolvido após décadas de pesquisa e debate sobre esses modelos de negócios.

Diante de um cenário nacional voltado para a construção de marcos regulatórios que deem conta dos desafios que o Brasil enfrenta quanto ao ambiente digital, elencamos oito medidas para a agenda da regulação de plataformas no Brasil.

  1. Atualizar o sistema de responsabilização, moderação de conteúdo e liberdade de expressão, levando em conta a necessidade de remoções proporcionais e ágeis para conteúdos mais graves (incitação à violência e ao racismo, entre outros), que também incluam obrigações de cuidado das plataformas e prevejam mecanismos e garantias firmes contra a censura de conteúdos legítimos.
  2. Diante da opacidade desses modelos de negócios, é preciso estabelecer obrigações de transparência significativa, que permitam a avaliação de práticas como a remoção de conteúdos via moderação e via ordens judiciais, de sistemas de recomendação, priorização e despriorização de conteúdo e de critérios de direcionamento de conteúdos publicitários, entre outros.
  3. Várias das obrigações atualmente pensadas para as plataformas digitais dependem de fiscalização adequada e poder de polícia de uma autoridade independente. É preciso enfrentar o problema do órgão regulador no Brasil.
  4. São necessários arranjos que envolvam outros agentes na aplicação da lei, democratizando a sua governança, que envolvam, por exemplo, auditorias externas e internas para identificar o cumprimento dos deveres de cuidado e os riscos em modelos de negócios, parcerias com entidades especializadas para moderação de conteúdo, abertura de dados para organizações de pesquisa e espaços multissetoriais para decisões sobre políticas e práticas que impactem direitos.
  5. Plataformas devem avaliar periodicamente os potenciais impactos nos direitos humanos de seus serviços, de modo a ajustar as suas políticas e práticas para mitigar os riscos encontrados.
  6. Devem existir obrigações específicas para priorizar a segurança de mulheres, pessoas negras, indígenas e LGBTQIA+ e outros grupos que sofrem violências acentuadas. Por exemplo, processos periódicos de avaliação desses riscos, sua transversalização nos processos internos das plataformas (como grupos de trabalho para o período eleitoral) e incremento do poder de usuários e organizações para notificar os casos de violência e obter respostas rápidas.
  7. A circulação de conteúdo ilegal não pode agravar situações de crises e de conflitos, ampliando danos à democracia e aos direitos humanos. São necessários instrumentos, como protocolos de crise, que permitam que as empresas e os governos cooperem na mitigação dos impactos desses conteúdos nesses contextos.
  8. É preciso avançar na aplicação da LGPD (Lei Geral de Proteção de Dados Pessoais) e na reflexão sobre qual é o uso legítimo de dados pessoais nesses modelos de negócios. É preciso lidar com diversas questões, como, por exemplo, quais informações sobre seus usuários podem ser utilizadas legitimamente para o microdirecionamento de conteúdo.

As iniciativas legislativas em curso no Brasil têm severas limitações que, em alguns casos, as colocam na contramão da agenda regulatória necessária.

Por exemplo, o projeto de lei 2.630, oriundo do Senado e em discussão na Câmara dos Deputados, apesar de avançar no tema da transparência sobre as práticas de moderação das plataformas, não traz medidas proporcionais para lidar com conteúdo nocivo e não prevê autoridade independente supervisora.

Além disso, estabelece um regime de imunidade parlamentar para as contas de congressistas, potencialmente agravando, em vez de mitigar, o cenário de desordem informacional. Nesse contexto, a pressa para a aprovação do projeto nos moldes de hoje seria prejudicial para uma agenda efetiva e estruturada da regulação de plataformas no país.

É preciso transformar o marco normativo brasileiro e construir uma agenda regulatória ampla, por meio de um "pacote legislativo" composto de legislações verticais de áreas específicas que complementem o marco horizontal acima proposto.

Para além dos pontos listados, será fundamental construir políticas que enfrentem, por etapas, outros enormes desafios: econômicos e concorrenciais, do trabalho, de proteção à criança, de inclusão digital e de promoção do jornalismo de qualidade e do conhecimento.

No momento em que o país se volta para o fortalecimento de suas instituições democráticas, não podemos perder a oportunidade de estabelecer um marco regulatório para as plataformas digitais que mitigue os riscos da circulação de conteúdo nocivo e a concentração de poder das plataformas, garantindo a liberdade de expressão e o acesso à informação dos cidadãos.

Clara Iglesias Keller

Líder de pesquisa no Weizenbaum Institute de Berlim e professora do IDP (Instituto Brasiliense de Direito Público)

Laura Schertel Mendes

Professora da UnB (Universidade de Brasília) e do IDP (Instituto Brasileiro de Desenvolvimento, Ensino e Pesquisa), presidente da Comissão de Direito Digital da OAB Federal e pesquisadora da Universidade Goethe de Frankfurt.

Mariana Valente

Professora da Universidade de São Galo (Suíça) e diretora do InternetLab

Silvio Yasui

Doutor em saúde pública (Departamento de Psicologia Social da Unesp)

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.