PL das Fake News: Leia a íntegra da versão apresentada pelo relator

Retirada de nova agência regulamentadora para fiscalizar cumprimento da lei é destaque

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo

O novo texto do PL das Fake News, em discussão na Câmara dos Deputados e com relatoria do deputado federal Orlando Silva (PC do B-SP), foi protocolado na noite de quinta-feira (27), após negociação de ajustes com bancadas nos últimos dias.

A expectativa é que o mérito seja votado em plenário nesta terça-feira (2).

Se aprovada, a proposição deve voltar ao Senado, que referendou o texto original, em 2020, mas precisa avaliar as mudanças para seguir à sanção presidencial.

O relator do PL das Fake News, Orlando Silva (PC do B-SP), discursa no plenário da Câmara dos Deputados em favos do regime de urgência para o projeto
O relator do PL das Fake News, Orlando Silva (PC do B-SP), discursa no plenário da Câmara dos Deputados em favos do regime de urgência para o projeto - Pedro Ladeira - 25.abr.23/Folhapress

Dentre os destaques do relatório estão a retirada da criação de uma agência regulatória para fiscalizar o cumprimento das regras previstas do projeto, sem determinação de como a aplicação da lei seria monitorada, e um trecho resguardando a livre expressão de cultos religiosos.

O ponto era criticado pela oposição, que apelidou o órgão de "Ministério da Verdade". Segundo eles, poderia haver risco de interferência ideológica na agência, com a retirada de conteúdos de opositores.

A proposta também prevê o pagamento, por parte das plataformas, pelo conteúdo jornalístico utilizado sem que esse custo seja repassado ao usuário final. Sobre a forma do pagamento, o texto aponta que a pactuação deve ser feita entre as plataformas e as empresas jornalísticas.

A votação do PL ganhou força no governo Luiz Inácio Lula da Silva (PT) após os atentados golpistas de 8 de janeiro e depois dos ataques a escolas em São Paulo e em Blumenau (SC).

Leia a íntegra do parecer da PL das Fake News:

"PARECER PROFERIDO EM PLENÁRIO AO PROJETO DE LEI Nº 2.630, DE 2020, E APENSADOS PROJETO DE LEI Nº 2.630, DE 2020 (Apensos Projetos de Lei – PL nos 3063/2020, PL 3144/2020, PL 3627/2020, PL 1676/2015, PL 2712/2015, PL 346/2019, PL 283/2020, PL 2854/2020, PL 3029/2020 , PL 2883/2020, PL 649/2021, PL 3119/2020, PL 1589/2021, PL 2393/2021, PL 2831/2021, PL 3395/2020, PL 291/2021, PL 449/2021, PL 3700/2021, PL 3573/2020, PL 213/2021, PL 495/2021, PL 2401/2021, PL 127/2021, PL 246/2021, PL 1362/2021, PL 865/2021, PL 2390/2021, PL 10860/2018, PL 5776/2019, PL 475/2020, PL 4418/2020, PL 1743/2021, PL 3389/2019, PL 4925/2019, PL 5260/2019, PL 437/2020, PL 2284/2020, PL 6351/2019, PL 517/2020, PL 3044/2020, PL 1590/2021, PL 2989/2021, PL 2763/2020, PL 6812/2017, PL 7604/2017, PL 9647/2018, PL 2601/2019, PL 2602/2019, PL 8592/2017, PL 9554/2018, PL 9554/2018, PL 9533/2018, PL 9761/2018, PL 9838/2018, PL 9884/2018, PL 9931/2018, PL 4134/2021, PL 200/2019, PL 241/2019, PL 3307/2020, PL 693/2020, PL 705/2020, PL 1394/2020, PL 988/2020, PL 1923/2021, PL 1258/2020, PL 1941/2020, PL 2389/2020, PL 2790/2020, PL 1001/2021, PL 2196/2020, PL 1897/2021, PL 3857/2019, PL 1974/2019, PL 2844/2020, PL 3222/2020, PL 356/2021, PL 388/2021, PL 5959/2019, PL 1772/2021, PL 2060/2021, PL 3366/2021, PL 143/2022, PL 714/2022, PL 836/2022; PL 2516/2022; PL 125/2023; PL 1087/2023; PL 1116/2023)

Institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet.

Autor: SENADO FEDERAL; Senador ALESSANDRO VIEIRA

Relator: Deputado ORLANDO SILVA

I - RELATÓRIO

Vem ao exame deste Plenário o Projeto de Lei nº 2.630, de 2020, de autoria do Senador Alessandro Vieira, para disciplinar regras de transparência para provedores de redes sociais e de serviços de mensageria privada, com a finalidade de garantir segurança e ampla liberdade de expressão, comunicação e manifestação do pensamento. No capítulo I, a proposta estabelece os princípios pelos quais a lei será pautada, incluindo, por exemplo, o princípio da transparência nas regras para veiculação de anúncios e conteúdos pagos. Em seguida, delineia os objetivos da lei, destacando o fortalecimento do processo democrático, a defesa da liberdade de expressão e o impedimento da censura no ambiente online, a busca por maior transparência das práticas de moderação de conteúdos postados por terceiros em redes sociais e a adoção de mecanismos e ferramentas de informação sobre conteúdos impulsionados e publicitários disponibilizados para o usuário. Ao final, o capítulo preceitua as definições relevantes que serão usadas na aplicação da lei.

No Capítulo II, a proposição estabelece regras gerais e específicas de responsabilidade e transparência no uso de redes sociais e de serviços de mensageria privada. Dentre as regras gerais, o projeto de lei veda o funcionamento de contas inautênticas e de contas automatizadas não identificadas como tal, bem como prevê a possibilidade da exigência de confirmação de identificação de usuários e responsáveis pelas contas. Há, ainda, a previsão de adoção de procedimentos de moderação, assegurando aos usuários o direito de reparação por dano individualizado ou difuso aos direitos fundamentais e o direito de recorrer da indisponibilização de conteúdos e contas.

Especificamente para os serviços de mensageria privada, há previsão de limitar o número de encaminhamentos de uma mesma mensagem a usuários ou grupos, e de consentimento prévio do usuário para inclusão em grupos de mensagens. Para os provedores de redes sociais há obrigações, por exemplo, de produção de relatórios trimestrais de transparência e de identificação de todos os conteúdos impulsionados e publicitários.

No Capítulo III a proposta aborda a atuação do Poder Público, disciplinando as contas de redes sociais utilizadas por entidades e órgãos da Administração Pública, direta ou indireta, e dos agentes políticos, bem como determinando regras de transparência sobre dados de contratação de serviços de publicidade e propaganda ou de impulsionamento de conteúdo por meio da internet.

O Capítulo IV prevê a criação de um Conselho de Transparência e Responsabilidade na Internet, que terá como atribuição a realização de estudos, pareceres e recomendações sobre liberdade, responsabilidade e transparência na internet. Caberá ao Conselho, dentre outras competências, elaborar código de conduta para redes sociais e serviços de mensageria privada, a ser avaliado e aprovado pelo Congresso Nacional, avaliar a adequação das políticas de uso adotadas pelos provedores de redes sociais e de serviços de mensageria privada e avaliar os procedimentos de moderação adotados pelos provedores de redes sociais, bem como sugerir diretrizes para sua implementação.

O Capítulo V carreia regras de autorregulação regulada, prevendo que provedores de redes sociais e de serviços de mensageria privada poderão criar uma instituição de autorregulação voltada à transparência e à responsabilidade no uso da internet. O objetivo, entre outros, é aperfeiçoar regras e procedimentos para decidir sobre a adoção de medida informativa e disponibilização de um serviço eficiente para encaminhamento de reclamações.

O Capítulo VI preceitua sanções a serem aplicadas pelo Poder Judiciário nos casos de descumprimento da lei, prevendo penalidades de advertência, com indicação de prazo para adoção de medidas corretivas e de multa de até 10% do faturamento do grupo econômico no Brasil no seu último exercício.

Nas disposições finais, constantes do Capítulo VII, o projeto de lei aduz obrigação de nomeação de representantes legais no Brasil para provedores de redes sociais e serviços de mensageria privada, cria novos requisitos para formação do cadastro de telefones pré-pagos e novas hipóteses de improbidade administrativa contra os princípios da administração pública.

Ainda em 2020, foi realizado o Ciclo de Debates Públicos para discussão do PL no 2.630/2020, que Institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, contou com a realização de onze mesas de discussão e a participação de 72 especialistas e numerosos deputados, transmissão aberta pelo Youtube e ativa participação dos internautas pelo e-Democracia. Apresentaremos a seguir uma síntese das principais questões discutidas no Ciclo e, ao final, um resumo de cada uma das mesas.

A Mesa 1 discutiu a importância de uma lei para o combate à desinformação. Houve consenso em sua necessidade para o contexto brasileiro, principalmente devido aos comportamentos inautênticos e à disseminação de informações falsas ou distorcidas, porém sem vigilantismo e barreiras à inovação. A Mesa 2 foi voltada à transparência das ações pelas plataformas. Houve concordância acerca da importância da publicação de p. 3 relatórios contendo as ações de mediação das plataformas. A Mesa 3 debateu as práticas de moderação de conteúdos e, embora tenha havido harmonia acerca da importância do conhecimento e da publicação dos mecanismos utilizados pelos aplicativos, foi manifestada apreensão quanto a: excessivos detalhamentos de condições na Lei; aumento da posição dominante das plataformas; dificuldades de implementação por empresas pequenas; e a redação do art. 12. A Mesa 4 focou em publicidade e impulsionamento de conteúdos. O impulsionamento foi considerado positivo devido ao barateamento das campanhas publicitárias, porém houve críticas quanto à falta de responsabilização das plataformas pelos anúncios veiculados, falta de simetria regulatória com os demais veículos de comunicação de massa. Também foi levantada a questão do tratamento de conteúdos eleitorais naquela esfera. A Mesa 5 discutiu a desinformação e seu impacto na democracia. Aqui houve um mosaico maior de posicionamentos, com opiniões conflitantes com relação à autorregulação e ao Conselho do Congresso Nacional previsto para o acompanhamento da futura lei. Houve consenso, porém, quanto à morosidade da justiça e o perigo que a rastreabilidade prevista no art. 10 impõe às liberdades individuais. A Mesa 6 se concentrou nos procedimentos de identificação de contas, tendo havido grande consenso em se considerar a possibilidade de coleta de documentos desproporcional e ineficaz. A Mesa 7 discutiu a mensageria privada e houve certa unicidade em considerar a guarda dos metadados perigosa para a privacidade, assim como ineficaz para identificação dos autores originários da desinformação. A Mesa 8 abordou as implicações da tecnologia na soberania nacional, quando foram expressadas preocupações quanto à vulnerabilidade gerada pela centralização da guarda dos dados apenas no território nacional e a dificuldade do exercício da soberania devido à natureza global da internet. A Mesa 9 tratou do financiamento da desinformação. Houve concordância quanto à necessidade de desmonetização dessa "indústria", que inclui a participação de agentes públicos, e discordâncias quanto à necessidade ou não de novos tipos penais para coibir essa prática. A Mesa 10 tratou da questão da educação midiática, quando o consenso foi mais generalizado, sendo apontada a necessidade de maior detalhamento das possíveis ações educativas e de integração com a Base Nacional Comum Curricular. A Mesa 11, focada na questão do discurso de ódio, indicou a necessidade da transparência nos processos de moderação, porém sem consenso acerca da melhor forma.

Em 15/04/2021, a proposta foi distribuída às Comissões de Ciência e Tecnologia, Comunicação e Informática, Finanças e Tributação e Constituição e Justiça e de Cidadania, as três para se pronunciarem quanto ao mérito, sendo a segunda também sobre a adequação financeira ou orçamentária e a terceiro quanto à constitucionalidade ou juridicidade da matéria. A proposição está sujeita à Apreciação do Plenário e segue o regime de tramitação de prioridade, nos termos do art. 151, II, do Regimento Interno da Câmara dos Deputados.

Foram realizadas também 1 reunião no âmbito da Comissão de Ciência e Tecnologia, Comunicações e Informática – CCTCI e 14 reuniões no âmbito do Grupo de Trabalho, com um total de 15 audiências públicas, cujo conteúdo passamos a relatar a seguir.

A 1ª audiência pública, que ocorreu em 06/08/2021, no âmbito do grupo de trabalho, tratou do tema "Caminhos Regulatórios para Enfrentar a Desinformação". A Sra. Ana Paula Bialer, destacou que é importante traduzir os conceitos estrangeiros para a realidade brasileira. Desfocar a discussão das plataformas e focar em quem faz o malfeito. Defendeu que há 2 caminhos, um mais tradicional, com legislação prescritiva e estruturas sancionatórias, e outro menos engessado, mais colaborativa ou autorregulação. Esta última tem mais frutos positivos num ambiente de grande inovação, como a internet. Exemplo é o código de conduta europeu. O Sr. Carlos Affonso Souza defendeu a possibilidade da atividade de moderação dos provedores de aplicações, que é importante. Criar regras para a moderação, vedando ou restringindo suspensões de contas pode ser problemático. Teceu comparações com a legislação americana para dizer que, no Brasil, não existe imunidade para moderações que são ilícitas, não fazendo sentido, portanto, retirar um direito inexistente. O melhor seria deixar claro que a moderação pode ser feita e que deve ser transparente e efetiva. A Sra. Clara Iglesias Keller - Coordenadora do Digital Disinformation Hub do Leibniz Institute for Media Research, ressaltou a necessidade dos esclarecimentos de alguns conceitos, como os de desinformação e de contas automatizadas. Disse ser interessante identificar questões atinentes à regulação dos conteúdos, direcionamento de publicidade e ferramentas para combater a desinformação. Estratégias de regulação devem, segundo ela, se afastar da regulação direta de conteúdos e focar na transparência e monitoramento das obrigações da lei. Mecanismos de autorregulação podem ser oportunos. O Sr. Demi Getschko - Diretor-Presiente do Nic.br discorreu sobre conceitos básicos da internet, destacou que o Brasil já tem um marco legal para a internet e que se deve tomar cuidado para legislação não se tornar obsoleta rapidamente. A Sra Laura Moraes, Coordenadora Sênior de Campanhas de Advocacy na AVAAZ, defendeu que a proposta deve centrar-se na legislação nos direitos dos usuários. O objetivo deveria mais ser transparência e acesso à informação e não a remoção de conteúdos. Há uma falta de clareza no texto sobre as competências fiscalizatórias estabelecidas no PL. Os dados devem estar disponíveis para sabermos que o acontece dentro das plataformas e para os pesquisadores. Em seguida, a Sra Raquel Saraiva destacou o art. 19 do MCI, que desestimula a censura nos meios virtuais. Aduziu pela adoção de critérios claros de remoção e edição de conteúdo para os usuários e também de relatórios de transparência sobre as atividades dos provedores para o público em geral. Defendeu que art. 10 do texto do Senado deveria ser alterado, pois implica vigilância massiva, relativizando os direitos à privacidade. A Sra. Renata Mielli, Coordenadora do Centro de Estudos da Mídia Alternativa Barão de Itararé discorreu sobre a desinformação e a degradação da esfera pública de debate e que a discussão deve se pautar pela tentativa de melhorar esse ambiente. Seria equívoco regular tipos de discurso ou o que o usuário pode fazer, porque seria dar até mais poder para as grandes empresas privadas de tecnologia. Destacou que há um consenso maior sobre processos de transparência e menor opacidade, com obrigações de relatórios periódicos. A moderação é necessária, mas o poder não pode ser indiscriminado e seria de bom tom a criação de um devido processo legal para a moderação. O Sr. Renato Franco de Moraes disse que o PL parece atribuir uma excessiva responsabilidade sobre os provedores de internet. Há algumas normas no PL que não são principiológicas, como por exemplo a vedação de contas inautênticas e automatizadas, que pode trazer problemas. Opinou que o sistema do MCI para remoção de conteúdo, tirante a notificação do usuário, funciona bem. Não seria necessário criar uma instância recursal dentro do próprio provedor, o que engessaria o procedimento e quem decidirá o ponto no final será o juiz.

Na 2ª audiência pública, realizada em 10/08/2021, com o tema "Medidas de Transparência e da Prestação de Contas", a Sra. Rebeca Garcia, Gerente de Política Públicas do Facebook no Brasil, sustentou que se deve evitar a tentação de elaborar uma proposta muito restritiva, o que não significa se debater a possibilidade de regulação, mas sempre com neutralidade tecnológica. Destacou que a transparência não é um fim em si mesma, mas deve permanecer útil à medida que os desafios mudam. Em seguida, a Sra. Ramênia Vieira, do Intervozes, defendeu o avanço na transparência das plataformas e na prestação de contas dessas entidades. Os usuários devem conhecer amplamente as políticas de moderação adotadas e as plataformas devem ser transparentes quanto aos mecanismos de curadoria, quando e como o algoritmo afeta a expressão dos usuários. O Sr. Thiago Rondon, Diretor-Executivo do App Cívico e Coordenador Digital de Combate à Desinformação do Tribunal Superior Eleitoral – TSE, discorreu sobre iniciativas de combate às notícias falsas, como a Coalização de Checagem, entre outras. Destacou que grande da população não tem acesso a dados e essas inciativas trabalham nesse sentido. Deve-se, argumentou, evitar retrocessos, e garantir conquistas importantes como direito à criptografia e debater a responsabilidade por transparência no espaço público sobre desmonetização, remoção de conteúdo. O Sr. José Renato Laranjeira, Diretor do Laboratório de Políticas Públicas e Internet – LAPIN, notou que tratamentos automatizados de dados podem acarretar erros de decisão. Por isso, a transparência deve ser garantida proporcionalmente ao público-alvo. A transparência deve diferenciar qual tipo de moderação foi utilizada e qual seu impacto e justificabilidade, devendo manter-se o viés humano. O Sr. Ricardo Campos, Diretor do Instituto Legal Grounds for Privacy Design – LGPD, aduziu que estamos caminhando para uma 2ª fase da internet, deixando de ter relação mais horizontais e caminhando para relações mais verticais e intermediadas. Sobre a moderação de conteúdo, afirmou que a liberdade de expressão de quem está dentro de plataformas privadas é gerenciada de forma privada, o que pode gerar uma crise. O sistema europeu, ao invés de delegar tal decisão para o Judiciário, obrigou às plataformas o desenvolvimento de um procedimento simples que reclamação dentro da própria plataforma. Isso não daria mais poder para a plataforma, sendo diferente da técnica do bom samaritano. Sobre autorregulação regulada, que é aplicada na Alemanha pela NETZDG, afirmou que seria um exemplo de implementação interessante. O Sr. Diogo Moyses Rodrigues, Coordenador do Programa de Telecomunicações e Direitos Digitais do Idec, lembrou da visão consumerista em relação ao tema da regulação das plataformas digitais. Destacou que os termos de uso devem claros e acessíveis e as regras de remoção de conteúdo devem ser comunicadas de forma simples e transparente. Deve haver, nesses casos devido processo e apelação, que estão dentro da qualidade da prestação do serviço. Mesmo que se abra mão da notificação sobre determinados conteúdos, o direito à informação deve permanecer. Em relação à prestação de contas deve haver transparência quanto ao direcionamento e o impulsionamento, devem estes serem públicos.

Na 3ª audiência pública, realizada em 12/08/2021, com o tema "Moderação de Conteúdos e Liberdade de Expressão", a Sra. Alana Rizzo, Gerente de Relações Públicas do YouTube, destacou que o YouTube tem mais de 2 bilhões de usuários no mundo e que o conteúdo reflete a realidade das discussões na vida real. Que a plataforma possui regras e que removem 10 milhões de vídeos por trimestre. Em seguida abordou as políticas das plataformas para a remoção de conteúdos que violam regras de comunidade. Indicou que há 3 avisos para remoção e um link para contestar a decisão da plataforma, o que gera redução de conteúdos duvidosos. Disse que o YouTube recompensa criadores de conteúdo dentro das regras e que vídeos impróprios representam apenas 0,18% dos conteúdos totais da plataforma. Frisou a importância da liberdade de expressão e o direito da plataforma de corrigir erros na moderação de seus conteúdos. Em seguida, o Sr. Jonas Valente, Professor Associado do Lapcom, Laboratório de Políticas de Comunicação da UnB, apontou que normas genéricas de moderação de conteúdos não têm sido suficientes. E que se deve trabalhar com uma regulação pública e democrática. Mas também não se deve permitir abuso por parte das autoridades públicas. Defendeu que o PL 2630 deve ter capacidade de atualização das normas e, portanto, o estabelecimento de uma autoridade supervisora parece interessante. Quanto aos procedimentos de moderação, deve haver garantia de notificação do usuário e Códigos de Conduta devem elencar os conteúdos que podem ser removidos imediatamente, sem um contraditório. O Sr. Márcio Novaes, Presidente da Abratel, Associação Brasileira de Rádio e Televisão, destacou a liberdade de imprensa e a vedação do anonimato. A liberdade de expressão das pessoas não impede a responsabilidade dos veículos de imprensa, ou dos intermediários. Sustentou que a dificuldade de separar o que é internet e o que é plataforma dificulta a construção de regras específicas para estas últimas. Nesse sentido, as plataformas deveriam assumir responsabilidades semelhantes àquelas incidentes sobre meios de mídia tradicionais. Deve-se acabar com assimetria regulatória entre ambos. Na sequência, a Sra. Tai Nalon, Diretora-Executiva do Aos Fatos, destacou o papel dos checadores de fatos e defendeu a responsabilidade de autoridade de acordo com sua influência no cenário informativo. Sublinhou que a desinformação deveria ter foco no comportamento coordenado dos usuários e não das mídias e se deve também incentivar a aplicação de políticas transparentes de acesso a dados. Depois, o Sr. Paulo José Lara, Coordenador do Programa Direitos Digitais do Artigo 19, disse que a internet não deve ser reduzida às plataformas ou redes sociais e que o PL deve ser elaborado no sentido de aumentar o acesso à informação e incentivar o debate público. Deve-se dar prioridade sobre a liberdade de expressão e direitos humanos e não somente à transparência. A participação da sociedade civil e dos usuários das plataformas, aduziu, é essencial, além do Estado e das próprias plataformas. Argumentou que empresas não podem se utilizar do seu poder econômico para aumentar poder político. O Sr. Marcelo Träsel, Presidente da Associação Brasileira de Jornalismo Investigativo Abraji, disse que já temos diversos mecanismos que podem ser aplicados em casos de abuso em relação à desinformação. A prática jornalística deve ser protegida, evitando-se remoção de conteúdos jornalísticos apenas por discordar de seu teor. Informou que há um grande número de pedidos de remoção de conteúdo de por parte de políticos e descartou a necessidade da criação de um tipo penal de desinformação, mas que seria problemático fazê-lo, seja porque academicamente não está bem definido, seja porque muitos deles são voltados contra empresas jornalísticas. Por fim, o Sr. Diogo Coutinho, Professor de Direito Econômico da USP e Representante da ABIPAG - Associação Brasileira de Instituições de Pagamento disse que os lojistas dependem cada vez mais das plataformas online de pagamentos. Ou seja, o varejo depende das Big Techs, que têm elevado poder de mercado nos seus nichos de atuação, sendo verdadeiros gatekeeprs da internet. Dessa forma, o acesso não discriminatório a essas plataformas deve ser garantido e a moderação de conteúdo não deve levar a práticas discriminatórias para pessoas que dependem desses meios de pagamento.

Na 4ª audiência pública, realizada em 17/08/2021, com o tema "Conteúdo Pago, Publicidade e Impulsionamento nas Redes Sociais", destacamos a fala do Sr. Marcelo Bechara, de que se deve diferenciar a publicidade de impulsionamento. Nesse sentido, a liberdade de expressão seria diferente de direito à "viralização" do conteúdo do usuário. O Sr. Francisco Cruz disse que anúncios distintos que precisam ser tratados de forma diferente. Publicidade política ou eleitoral deve receber maior atenção, por ser mais sensível. E também deve haver um tratamento diferenciado quando há recursos públicos envolvidos na publicidade. O Sr. Alexandre Gibotti defendeu que, como regra, toda vez que se publica um conteúdo impulsionado as plataformas deveriam ser co-responsabilizadas pelo conteúdo.

Na 5ª audiência pública, realizada em 19/08, com o tema "Protegendo a Democracia da Desinformação: uma Responsabilidade Compartilhada", o Sr. Diogo Rais falou em hipóteses de responsabilidade compartilhada entre diversos atores. Em seguida, a Sra. Monica Steffen afirmou que verificadores de fato são importantes e o Facebook trabalha hoje com mais de 80 verificadores, reduzindo o alcance das notícias consideradas falsas no feed. Na sequência, Mario Leite argumentou que a polícia civil encontra-se em condições precárias para combater os crimes online. O Sr. Marcelo Rech, por sua vez, defendeu a valorização da profissão de jornalismo, que serve como contraponto à divulgação das fake news pelas Big Techs. Depois, o Sr. na Luiz Augusto faz uma defesa do uso de checadores de fatos na moderação de conteúdos por parte das plataformas digitais. Por fim, o Sr. Paulo Rená aformou que a anonimidade é importante para denunciantes e a desinformação é feita por mensagens de pessoas conhecidas. Aduziu que soluções de rastreabilidade são muito preocupantes, porque a manutenção de registros da cadeia de encaminhamentos quebra a criptografia de ponta a ponta, entre outros problemas.

Na 6º audiência pública, realizada em 24/08/2021, sobre o tema "Como Identificar Agentes Maliciosos sem Ferir a Proteção de Dados?", o Sr. Danilo Doneda, Professor do IDP, Instituto de Direito Público, defendeu que há problemas em relação à rastreabilidade com a proteção de dados pessoais, porque esta é massificada e incompatível com a ideia de minimização de riscos e contrária ao privacy by design. Mesmo a utilização restrita para grupos não é pertinente, havendo impropriedade em soluções estrangeiras que nem sequer foram implementadas devidamente. O melhor seriam sistemas com análise de metadados e denúncias de usuários. Em seguida, a Sra. Jaqueline Abreu, pesquisadora e membro da Comissão de Juristas PDP - Proteção de Dados Pessoais defendeu que a Legislação brasileira já prevê vários tipos de formas de combate a ilícitos, como a interceptação, a busca e apreensão, etc. O problema seria a falta de recursos e treinamentos, que passam a impressão de falta de ferramentas de vigilância. Disse que a rastreabilidade vai na contramão da proteção de dados pessoais. É preciso focar em quem está à luz do dia, com perfis identificáveis, fazendo fake news. A diretora Miriam Wimmer, da Autoridade Nacional de Proteção de Dados, destacou que há uma preponderância da liberdade de expressão e que a LGPD não é uma norma anti-fake news, dizendo respeito à forma como os dados transitam na rede. E o problema é o direcionamento e a granuralidade de outras formas de comunicação. Nesse contexto, deve-se cuidar para não tratar dados excessivamente, pois isso pode representar outros riscos. Por fim, defendeu que é precioso haver cautela em relação a regras de identificação e rastreamento, levando em conta o princípio da necessidade. A Sra. Bruna Martins Dos Santos, representante da Data Privacy Brasil, declarou que o combate à desinformação deve andar de mãos dadas com as políticas de proteção de dados pessoais. Também afirmou que a ANPD tem um caráter central na discussão de eventuais medidas de combate à desinformação. Segundo ela, a redação do atual art. 7º deixa os usuários vulneráveis a eventuais vazamentos de dados pessoais, especialmente de documentos de identidade. Acrescentou que os instrumentos de rastreabilidade propostos no PL são ineficazes, além de colocar a criptografia em risco. Após, a Sra. Samara Castro, membro INPD, declarou que um dos mais atuais e desafiadores debates é como identificar e punir perpetradores de crimes em ambiente digital sem ferir os princípios de privacidade e de proteção de dados. Reforçou que é fundamental definir critérios entre o que é comunicação interpessoal e o que é comunicação de massa. Um critério interessante, segundo ela, seria o da "porta de entrada" para a participação em cada ambiente virtual comunicacional. Finalmente, o Sr. João Brant, Diretor do Instituto Cultura e Democracia, afirmou que a desinformação é uma violação à liberdade de expressão e do acesso à informação confiável, plural e diversa. Defendeu também que a desinformação é um problema contemporâneo vultoso no Brasil, que tem repercussões negativas em diversos indicadores democráticos. Acrescentou que é um erro aplicar os ditames de privacidade e proteção de dados a uma parte dos serviços de mensageria que não deve ser considerado mensagem privada, e sim comunicação social, com mensagens destinadas a um amplo público. Para ele, deve haver uma separação entre as funcionalidades de comunicação interpessoal e a comunicação viral ou de massa, inclusive por meio de lei.

Na 7ª audiência pública, realizada em 26/08/2021, com o tema "Como Combater a Desinformação nos Serviços de Mensageria Privada", o Sr. Rony Vainzof, Secretário da CONIB argumentou que, quando as plataformas atingem um grande poder político e econômico, devemos exigir delas alguns comportamentos. O discurso de ódio deve ser coibido e os critérios de moderação devem ser aprimorados e a livre manifestação do pensamento deve ser sopesada para não ser extrapolada. A questão da guarda de logs é importante e deve ser preservada no texto da proposta. Quanto aos serviços de mensageria privada, deve-se diferenciar a comunicação interpessoal e a pessoal. Na sequência, o Sr. Diego Canabarro, Membro do ISOC - Internet Society, para a América Latina e Caribe, destacou que há riscos de obsolescência de se legislar com foco a apenas no tipo de serviço. Explicou que a criptografia é multidimensional, incluindo sua importância para autenticação das pessoas e máquinas e para garantir a privacidade e a viabilidade de investigações criminais. Alertou que a rastreabilidade do art. 10 deve ser rechaçada, pois há quebra de criptografia. Depois, o Sr. Pablo Ortellado, professor da USP, fez um contraponto, defendendo que os serviços de mensageria têm formatos de comunicação interpessoal, mas podem ser usados também para comunicação de massa de forma deletéria. A opacidade nos encaminhamentos incentivaria ilícitos e as investigações não dispõem de capacidade técnica para encontrar a origem da mensagem ilícita. Aduziu que o art. 10 não quebra a criptografia porque o reencaminhamento já é armazenado no servidor e o operador do sistema já guarda a mensagem. Assim, ele poderia guardar a mensagem sem descriptografar a mensagem. A Sra. Veridiana Alimonti, analista de Políticas Públicas para América Latina da EFF - Electronic Frontier Foundation, disse que as propostas do art. 10 criam hipóteses de guarda prévia e massiva de dados e são preocupantes em relação a direitos humanos e que os metadados podem ser usados para obter informações sobre as pessoas. O art. 10 pretende reverter proteções de privacidade a fim de criar nova camada que possui conexão direta do metadado com o conteúdo da comunicação. Depois, o Sr. Claudio Henrique Ribeiro Da Silva, professor de Direito da Universidade Federal de Ouro Preto, destacou que a moderação das plataformas é muitas vezes arbitrária, com aplicação abusiva dos termos de uso. É perigosa uma lei que cria obrigações para que haja essa moderação e identificação de usuários. Já o art. 12 é importante para balizar as regras de moderação, mas pode servir para que a procedimentalização da remoção de conteúdos dê um verniz, uma legitimidade, para a moderação abusiva de conteúdo das plataformas. Em seguida, o Sr. Dario Durigan, Diretor de Políticas Públicas do Whatsapp, disse que a empresa já adotou medidas exitosas para coibir abusos da liberdade de expressão, como reduzir as cadeias de encaminhamento. Em 2020, por exemplo, foi vedado o disparo em massa de mensagens, obrigação seguida pela empresa. Esse trabalho, segundo ele, vem sendo atingido sem rastreabilidade. O art. 10 acabaria por identificar todas as mensagens de encaminhamento em massa de usuários, violando a proteção de dados pessoais e os direitos dos usuários. Por último, o Sr. Ivar Hartmann, professor do INSPER, argumentou que o art. 10 não trata da rastreabilidade de quaisquer mensagens. E que há vários requisitos para que a rastreabilidade seja identificada. Seria apenas uma parcela ínfima das mensagens que seriam rastreadas e os dados que são gravados são os que indicam quais usuários realizaram encaminhamentos em massa da mensagem, com data e horário do encaminhamento e o quantitativo total de usuários que receberam a mensagem. Além disso, os dados só poderiam ser utilizados em prova de investigação criminal e em instrução processual penal, mediante ordem judicial. Por fim, ressaltou que não haveria quebra de criptografia, caso adotado o art. 10.

Na 8ª audiência pública, realizada em 31/08/2021, com o tema "Tecnologia E Soberania Nacional", a Sra. Laura Schertel Mendes, professora da UnB e do IDP, defendeu que a liberdade de expressão não protege apenas individualmente, mas também a esfera pública digitalizada, a coletividade. Essa esfera pública deve ser funcional e saudável, com acesso a todos, prezando por informação de qualidade e a proteção de dados pessoais. O pressuposto da regulação soberana é que ela possa ser cumprida na sua jurisdição, mas não parece ser a diretriz maior, eis que vários Estados autoritários utilizam esse argumento para praticar censura na internet. Sobre a rastreabilidade da comunicação, no art. 10, há uma desproporcionalidade entre aquilo que se pretende combater, a desinformação, e o volume de informações que são coletadas, provocando uma violação da privacidade. Em seguida, falou a Sra. Luiza Brandão, Diretora do IRIS, que defendeu que devemos escapar da ideia de soberania fechada, utilizada por Estados totalitários. Para ela, a soberania é uma via de mão-dupla, que requer reconhecimentos mútuos entre os vários países. O art. 32 determina que os provedores devem ter sede e nomear representantes legais no Brasil. A sede no Brasil não seria necessária, podendo prejudicar o país. Obrigar a ter representantes pode também comprometer inovações e atrativos para que novas empresas tragam seus negócios para o país. Na sequência, teve a palavra o Sr. Rodrigo Fragola, Presidente da Assespro/DF, que argumentou pela autorregulação como o princípio básico do PL e que deveria haver uma definição mais precisa do que é fake news. Limitar por lei o que as plataformas podem moderar é perigoso, pois amarra demais as possibilidades de autorregulação, inclusive na tecnologia utilizada. Já o art. 10 promove a vigilância em massa e ameaça a liberdade de expressão, devendo ser suprimido. Depois, a procuradora da República Fernanda Teixeira Souza Domingos disse que o problema não é o fato de a conta ser inautêntica, mas sim o seu uso ilícito. Para ela, o art.12, que trata da moderação, deveria ser mais explícito, colocando balizas mais precisas para a atividade de moderação das plataformas. Questões de pornografia infantil geralmente não são encaminhamentos em massa e parecem não ser atacadas pela proposta. Quanto ao art. 26, a procuradora afirmou que o Conselho de Transparência e Responsabilidade na Internet deveria ser contemplado com um representante do Ministério Público, um do Judiciário e um da OAB. Por fim, a obrigação da instalação de sede do provedor de aplicações no Brasil não seria necessária, aduziu, mas a obrigação de apontar um representante legal sim. O Sr. Ângelo José Mont Alverne Duarte, do Banco Central do Brasil, discorreu mais sobre aspectos da digitalização do mercado financeiro e defendeu que a lei deve ser elaborada a fim de estimular a entrada de novos competidores no mercado. Por fim, a advogada Patrícia Peck Pinheiro disse que as relações digitais possuem natureza transnacional e a pergunta é como fazer uma vigilância legitimada, sem colocar em riscos os direitos civis e os direitos fundamentais. Para ela, a responsabilidade deve ser compartilhada quando o que temos são pessoas que estão contribuindo simultaneamente para a existência da internet. No art. 32, o melhor seria colocarmos a necessidade de representantes e não obrigar a se ter uma sede no país.

Na 9ª audiência pública, realizada em 02/09/2021, com o tema "Aumentando a Conscientização sobre a Desinformação: o Papel da Educação", a Sra. Patrícia Blanco, Presidente-Executiva do Instituto Palavra Aberta, disse que a desinformação é tema complexo, que se transpôs do ambiente analógico para o digital e possui 3 eixos fundamentais: (i) conscientização da população, mostrando riscos e prejuízos da desinformação; (ii) punição para aqueles que, de forma dolosa, disseminam desinformação; (iii) mais poder para o cidadão para criticar cada informação que recebe. Na sequência, Caio Machado, Diretor-Executivo do Instituto Vero, afirmou que a pesquisa é essencial para compreendermos o problema e darmos soluções para a sociedade, que deve-se exigir transparência das plataformas e cobrar que haja educação de mídias e capacidades digitais. Notou que o art. 21 do PL devia introduzir essa necessidade na base curricular, sendo a educação uma forma de modular comportamentos. Ou seja, sustentou que a moderação deve ter um fator educativo. A Sra. Natália Leal, CEO da Agência Lupa News, destacou que a agência Lupa tem hoje mais de 20 colaboradores e é uma agência independente. Quanto ao art. 21, este deveria contemplar obrigações sobre educação midiática. Os checadores de fatos, na sua visão, aumentam o custo da mentira em qualquer ambiente e a atividade de checagem não precisa de uma regulação própria e nem de novas regras, porque já é jornalismo. O arcabouço de direito já contemplaria as principais infrações criminais na desinformação. Em seguida, a Sra. Ângela Pimenta, Diretora de Operações do PROJOR, discorreu sobre os tipos de desinformação nos meios digitais, destacando o falso contexto de algumas notícias e o deep fake. Explicou as 3 fases da desinformação, que começa com a criação, passa pela reprodução e termina na sua distribuição. Rejeitou nova tipificação no combate à desinformação, pois o próprio jornalismo pode acabar perdendo e notou quer crimes contra a honra e a previsão de3 indenização civil já seriam suficientes. Na sua opinião, o foco deve ser no método de distribuição de conteúdos digitais, com a promoção de conteúdos factualmente verificados. O Sr. Sérgio Lüdtke, Editor-Chefe do Projeto Comprova, explicou como funciona o Comprova, que trabalha colaborativamente com fontes originais e como se difere dos fact-checkers comuns. Defendeu que o trabalho de checagem é jornalismo e que não checam veículos jornalísticos, mas sites que se passam por jornalísticos, utilizando monitoramento por softwares para identificar notícia com grande volume de circulação. O professor Sérgio Amadeu Da Silveira, da UFABC - Universidade Federal do ABC, falou sobre os elementos fundamentais da desinformação. Afirmou que a comunicação distribuída inverteu o fluxo em relação à comunicação de massa, mostrando que hoje é mais fácil falar e difícil de ser ouvido e que a desinformação não se baseia na desinformação, mas na espetacularização. A criminalização, para ele, não é a saída. Em relação ao art. 10, defendeu que gera uma guarda de informações em looping, gerando uma vigilância exacerbada, e que ferramentas de disparo em massa da própria plataforma devem ser proibidas, com maior transparência na atuação dos algoritmos. Finalmente o Sr. João Feres Júnior, Coordenador do LEMEP - Laboratório de Estudos de Mídia e Esfera Pública da UERJ, destacou que a desinformação no Brasil é bem anterior às redes sociais, tendo a grande mídia como protagonista. Que os jornais muitas vezes publicam apenas parte negativa de determinadas situações e que a educação é importante, mas regulação é fundamental. Disse que empresas privadas de jornalismo têm pouquíssima transparência na forma como geram a notícia e agências de checagem de fato costumam não checar a grande imprensa.

Na 10ª audiência pública, realizada em 09/09/2021, com a tema "Diversidade de Plataformas e Regulação Assimétrica", a Sra. Natália Neris, representante do Twitter, compartilhou a visão de uma internet aberta, global e única e que o Twitter defende esse modelo. O serviço da plataforma é servir à conversa pública. Destacou importantes princípios da internet: (i) ser global; (ii) ter confiança é essencial; (iii) deve haver escolha e controle sobre algoritmo de recomendação de classificação; (iv) a moderação é mais do que deixar ou remover, deve dar orientações claras. Aduziu que o Brasil deve manter e reforçar os princípios do Marco Civil da Internet. Depois, o Sr. Marcel Leonardi, representante da FGV, destacou que monopólios podem ser aparentes e chegar ao fim rapidamente com o avanço tecnológico e por isso não se pode focar numa fotografia da realidade. Disse que a regulação dos grandes pode anular o surgimento de pequenas empresas e que é necessário um debate sobre regulação local versus internet global. Corre-se o risco, segundo Marcel, de regular atores locais, deixando de fora os pequenos e deixando de fora também empresas que não têm representação legal do Brasil. O Sr. Felipe Carmona Cantera, Secretário Nacional de Direitos Autorais e Propriedade Intelectual, ressaltou a importância do Marco Civil da Internet para a liberdade de expressão e a dificuldade de se identificar precisamente uma notícia falsa. Afirmou que é difícil nomear um paladino da verdade. Sobre a Medida Provisória nº 1.068/2021, destacou que esta coíbe a veiculação de notícias falsas ou crimes. Afirmou que as redes sociais não dão nenhuma justificativa ou direito de defesa para remoção ou bloqueio de conteúdos de seus usuários. Por último, falou o Sr. Sérgio Branco, Representante da Coalizão Direitos na Rede, que defendeu inexistir um direito à publicação, porque não havia um dever correspondente de não publicar. Explicou que os direitos autorais podem ser patrimoniais, com valor econômico e direitos morais, de cunho pessoal e não econômico. Portanto, não haveria, em princípio, violação de direitos autorais caso a obra seja excluída de uma determinada plataforma da internet.

Na 11ª audiência pública, realizada em 14/09/2021, com o tema das "Boas práticas no combate à desinformação durante a Pandemia de Covid19", o Sr. João Guilherme Bastos Dos Santos, Representante do Instituto Nacional de Ciência e Tecnologia em Democracia Digital, levantou 3 pontos: (i) redes sociais compõem um sistema de informações virais, com cada plataforma agindo de uma forma. Cada tema preocupante pode estar em plataforma diferentes; (ii) a pandemia descentraliza a informação, pois gera um ganho imediato e individual e ela descentraliza os atores porque acaba descentralizando as fontes de renda; e (iii) o debate de fake news deve andar junto com o de proteção de dados, pois é o que potencializa e direciona a divulgação das notícias falsas. Em seguida falou o Sr. João Henrique Rafael Junior, Idealizador da UPV - União Pró-Vacina, afirmando que a confiança do brasileiro em vacinas já estava caindo desde 2015. Durante a Covid, a intenção de se vacinar caiu ao final de 2020 com o avanço da desinformação, mas voltou a subir em 2021. Informou que pesquisas indicam que as razões da perda de confiança estavam relacionadas com teorias conspiratórios e notícias falsas e que as plataformas são imprescindíveis com alertas sobre conteúdos falsos. Na sequência, o Sr. Thiago Tavares, presidente da SaferNet Brasil, sustentou que é preciso diferenciar a desinformação da informação meramente ruim, ou de baixo nível e discorreu sobre a dinâmica e os passos da propaganda falsa. Importante notar que há também campanhas de desinformação que vêm de fora do Brasil, o que pode representar ameaças à soberania nacional. Disse que a questão monetária é bastante relevante, porque gera incentivos distorcidos e as plataformas devem retirar a possibilidade de cash-out em sites criminosos ou que veiculam desinformação. O Sr. Mathieu Turgeon, professor do Departamento de Ciência Política da Western University, afirmou que o fator de risco das notícias falsas é a alteração da disposição cognitiva e a confirmação de vieses e visões políticas e que a repetição da informação torna o ser humano tendente a nela acreditar, criando uma ilusão da verdade. O que podemos fazer? Segundo o professor, mecanismos de verificação das plataformas e da mídia, alfabetização digital, remover robôs e contas automatizadas. Não se deve proibir fake news ou teorias da conspiração por lei, pois são conceitos abertos que podem inspirar desconfiança na atuação estatal. A Sra. Estela Aranha, membro do Instituto Brasileiro de Ciências Criminais – IBCCrim, disse não haver bala de prata para as Fake News e que é necessária mais moderação pelas plataformas e não menos moderação, como propõe a MP 1.068/2021. Disse que o art. 10 fica direcionado a apenas um serviço e a guarda dos registros coloca em riscos a proteção de dados e o sigilo das comunicações. É muito risco e bastante ônus para uma medida que é ineficaz. Afirmou ser importante criar a possibilidade concreta de identificação da porta lógica dos propagadores de Fake News, o que muitas vezes não ocorre com o Marco Civil da Internet.

Na 12ª audiência pública, realizada em 16/09/2021, com o tema da "Impactos de uma lei contra desinformação no ecossistema de inovação", o Sr. Diego Dorgam, professor de Engenharia de Software da UnB, disse que os serviços de mensageria privada e de redes sociais são cada vez mais semelhantes e é quase impossível diferenciar o modo como as pessoas acessam conteúdo em ambos. Dessa maneira, seria oportuno tomar cuidado para não criminalizar a tecnologia, mas as pessoas que eventualmente produzam conteúdo ilícito. Assim, deve-se tomar cuidado porque a identidade digital está hoje associada a um número de celular que não garante a verdadeira identidade. Em seguida, o Sr. Marcelo Lacerda, da Câmara Brasileira da Economia Digital - camara-e.net, discorreu sobre a digitalização do mercado de trabalho, com a tecnologia gerando crescimento econômico e oportunidades para pessoas e empresas. Defendeu a adoção de uma smart regulation, que traga a cooperação entre setor público e privado e leve em conta a evolução constante da tecnologia, inserida sempre num contexto em fluxo. Opinou que as diferenças entre plataformas devem ser levadas em consideração, com neutralidade tecnológica. Notou que existem abordagens não regulatórias, inclusive por meio de educação midiática, que devem ser consideradas, além de códigos de conduta. O Sr. Fabro Steibel, do Instituto de Tecnologia e Sociedade do Rio de Janeiro - ITS-Rio, afirmou que o ideal seria alterar o Marco Civil da internet e não criar uma nova legislação especializada e que as fake news foram politizadas por causa das eleições, mas são um problema já antigo. O remédio para esse problema, disse, parece voltar-se para os serviços de mensageria, sendo que o que está em jogo é a moderação de conteúdos e a forma do projeto de lei está muito vinculada à forma como as grandes plataformas funcionam. O problema é que a proposta pressupõe o uso de dados pessoais e coloca em risco a criptografia, o que pode gerar vigilância em massa. A Sra. Tatiana Ribeiro, Diretora-Executiva do Movimento Brasil Competitivo – MBC, afirmou que há riscos indesejados com o PL, que podem impactar o ecossistema da internet no Brasil e lembrou que a lei de Liberdade Econômica pode evitar alguns abusos regulatórios. Notou que seria oportuno que houvesse análises de impacto regulatório e os custos de transações levassem em conta custos e benefícios de impor uma regulação nos moldes sugeridos. Por fim, o Sr. Wanderley Mariz, Diretor de Políticas Públicas do Kwai, destacou 3 elementos importantes: a compatibilidade e sinergia com a LGPD, a flexibilidade na previsão das normas, e a adoção de mecanismos de autorregulação, cobrando regras claras dos agentes do Estado. Em seguida, o Sr. Maurício Moura, fundador da IDEIA Big Data, disse que pesquisas mostram que os brasileiros não confiam muito em conteúdos tradicionais de jornalismo e a maioria já admitiu ter compartilhado fake news. Seria preciso fazer com que a LGPD fosse realmente adotada e implementada durante os pleitos eleitorais. Informou que o Canadá criou uma legislação com foco na transparência do processo eleitoral e disse que a responsabilização deveria recair sobre os autores e não plataformas, embora a ação de bloqueio dos conteúdos deva ocorrer de forma rápida. Defendeu que monitorar indivíduos não é a saída boa, pois cria um precedente perigoso e que o ideal é identificar quem financia esse sistema de notícias. O Sr. Robson Lima, presidente da Associação Brasileira dos Operadores de Telecomunicações e Provedores de Internet, sustentou que o problema não é a internet ou a tecnologia, mas a sociedade. Em alguns casos, defendeu, é necessário identificar os números de IP para identificar crimes, como chacinas em escolas, pedofilia e sequestros e, portanto, necessário haver remoção e bloqueio de conteúdos com celeridade em casos mais graves, antes que uma tragédia ocorra. Enfim, o Sr. Leandro Alvarenga Miranda, diretor jurídico da Associação Nacional de Bureaus de Informação disse que o PL faz uma transferência de responsabilidade do Poder Público para entes privados, no sentido de que essas empresas devem fazer uma autorregulação. Isso geraria um risco de se punir as empresas, enquanto o ideal é a punição dos malfeitores. A desinformação deve ser combatida, mas não ao custo daqueles que geram empregos. Sobre as contas não autenticadas, considera que pode ser criada uma restrição aos direitos dos usuários que desejam usar pseudônimos, por exemplo. O art. 10, na sua consideração, pode entrar em conflitos com a LGPD, ao sugerir a identificação e rastreamento dos usuários.

Na 13ª audiência pública, realizada em 21/09/2021, com o tema da "Criminalização da Desinformação - Uma boa saída?", o Sr. Marlon Reis, representante do Movimento de Combate a Corrupção Eleitoral, defendeu que a solução no âmbito penal não é eficiente em todos os casos e que o ideal seria a tipificação penal apenas para condutas mais extremas, no caso de organizações criminosas que se mobilizam financeiramente de forma ilícita para influência eleitoral e de forma massiva. Fora do âmbito criminal, o PL poderia ter mecanismos mais céleres, no campo cível e eleitoral, para impedir que as notícias falsas se espalhem facilmente. No campo eleitoral, poderíamos ter a alguma sanção de inelegibilidade, com rito próprio e com representação especial. O Sr. Fernando Neisser, da Academia Brasileira de Direitos Eleitoral e Político - Abradep, disse que as máquinas da desinformação são baseadas num tripé: primeiro as ideias mentirosas, depois as plataformas que são as vias de acesso ao usuário e, por fim, há também intermediários que fornecem bancos de dados informais e mascaram as origens das remessas que tornam o trabalho investigativo mais difícil. A notícia falsa só ganha importância penal quando repercute na sociedade. Não faria sentido, segundo o palestrante, fazermos o controle pelo conteúdo, mas pelas estruturas montadas para disseminar as notícias falsas. Lembrou que o art. 870 do Código Eleitoral, recentemente alterado, é um bom exemplo de tipo penal que pode ser eficaz e que a rastreabilidade do art. 10 é bastante preocupante para a privacidade. O Sr. Carlos Oliveira, da UnB, afirmou que as pessoas usam os mesmos mecanismos para processar informação verdadeira e falsa e esses mecanismos são baseadas em influência prévias, havendo elementos psicológicos que estabelecem vieses na recepção da informação e o partidarismo exerce um forte condicionamento. A pergunta é se as soluções postas conseguem corrigir isso. Aventou que a tentativa de correção muitas vezes produz mais confirmação do viés e que o melhor seria que houvesse maior circulação de informações corretas. A Sra. Cassiana Saad De Carvalho, chefe da Divisão de Repressão a Crimes Cibernéticos da Polícia Federal, afirmou que não se pode banalizar o direito penal, sendo ele a última ratio. Existe uma complexidade técnica muito grande em se lidar com provas eletrônicas e o ferramental da investigação para a punição deve dialogar com realidade, sob pena de não conseguirmos obter as provas necessárias. Em relação à execução penal, defendeu que se deve pensar em alternativas para as penas restritivas de liberdade. Depois, o Sr. Valdemar Latance Neto, Delegado de Polícia Federal, disse que criminalizar condutas sem que haja os meios para se punir pode gerar uma certa frustração. Sustentou que a polícia deve ter os meios adequados e deve haver capacitação, treinamento, equipamentos; integração entre as polícias; cooperação entre o Brasil e outros países, pois os suspeitos utilizam ferramentas transnacionais, em nuvens, utilizando muitas vezes máquinas que estão fora do território brasileiro. Por fim, deve-se ter a colaboração das empresas privadas com a polícia, para obtenção dos dados do usuário suspeito. O Sr. Alexandre De Andrade Silva, Delegado do Serviço de Repressão a Crimes Eleitorais da Polícia Federal, entende que a desinformação passou a integrar a agenda de segurança dos países, mas que o direito penal deve ser reservado às organizações criminosas e de grande impacto social. Penas no campo da inelegibilidade podem ser uma boa saída, porém, não se deve apenas olhar para o conteúdo das postagens a fim de buscar a punição. Lembrou que o art. 326-A da legislação eleitoral já criminaliza conduta de se disseminar notícia falsa acerca de quem se sabe inocente. Por fim, o Sr. André De Faria Pereira Neto - Pesquisador da FioCruz/ENSP, aduziu que há outras soluções que não a criminalização das fake news. Primeiro, o fact-checking, depois a literacia digital e, por fim, a avaliação da qualidade da informação. Quanto mais informação de bom nível disponível, melhor é para o combate à desinformação. Constatou que mesmo páginas eletrônicas de entes públicos têm baixo índice de conformidade com informações corretas no tema da saúde pública e que poderia haver uma espécie de certificação dessas páginas, a fim de se garantir que as fake news sejam combatidas efetivamente com informação pública de qualidade.

Na 14ª audiência pública, realizada em 23/09/2021, com o tema da "Alterações no Marco Civil da Internet e Responsabilização das Plataformas", a Sra. Marília Monteiro, representante do TikTok, apresentou a plataforma e seu funcionamento, e destacou que conteúdos que violem as regras de comunidade são moderados e retirados. Disse que a empresa lança relatórios de transparência e que cerca de 82% dos vídeos foram removidos antes de serem publicados na plataforma, com 150 milhões de vídeos impedidos de serem criados por meios automatizados. A plataforma dá o direito de recurso para remoção de conteúdos, revisando o vídeo e tomando a decisão. Há previsão de criação de um Centro de Transparência e Responsabilidade nos Estados Unidos. No Brasil, a empresa tem parceria com o jornal o Estado de São Paulo e outros veículos de mídia para verificação de conteúdos. Em seguida, a Sra. Paloma Rocillo, representante do Instituto de Referência em Tecnologia e Sociedade – IRIS, disse que há uma pressão global pelo aumento da responsabilidade do papel dos intermediários, tanto em razão dos abusos quanto pela centralidade e poder das plataformas. Na sua visão, o provedor de conexão não deve ser responsabilizado por conteúdos de terceiros, e o provedor de aplicações só pode ser responsabilizado se descumprir ordem judicial de remoção de conteúdo, mas que isso não pode ser uma carta em branco. Explicou que, nos EUA, a regra do bom samaritano exime o provedor de aplicação pelo erro na moderação, mas que no Brasil não é assim. Embora as plataformas não sejam responsáveis pelo conteúdo inicial, sobre a atividade de moderação incidem outras regras do direito brasileiro. Solução seria aumentar a transparência das atividades de moderação. O Sr. Raul Echeberria, representante da Associação Latinoamericana de Internet, discorreu sobre as leis brasileiras que tratam da internet. Caso aprovado como está, disse haver riscos de retrocesso com o PL 2630/2020 em relação ao Marco Civil da Internet, e que deve haver um equilíbrio entre desenvolvimento econômico e combate à desinformação. No processo legislativo, não se deve encontrar os meios para fins e soluções já pré-determinados. Com o PL 2630, a tendência seria um maior volume de remoções, ameaçando a liberdade de expressão. Destacou que um ambiente de livre iniciativa não é contrário ao combate à desinformação, sendo necessária maior transparência nos mecanismos de moderação. O Sr. Emerson Wendt, delegado de Polícia Civil, afirmou que o dano cibernético deve ser evitado antes da publicação. Abordou as várias leis que tentaram reduzir dados cibernéticos no Brasil. Disse que as plataformas são rápidas para atender seus próprios termos de uso, mas não tão rápidas para cumprir regras legais e que a suspensão do conteúdo deveria ser feita de forma cautelar se houvesse notícia falsa comprovada por mensagem. O Sr. Emmanuel Publio Dias professor da Escola Superior de Propaganda e Marketing – ESPM, sustentou que os objetivos e fundamentos do PL 2630 são muito importantes, que a internet é um espaço público que transforma a comunicação, que era de uma só via, em algo de múltiplas vias, com ampla participação. Disse que as contas automatizadas e impulsionadas, com potencial de uso ilícito, devem ser reguladas. Considerou que publicidade é a compra da audiência e que, portanto, conteúdos impulsionados devem ser vistos como anunciantes. O problema são os anunciantes e impulsionadores de conteúdo que estão fora do Brasil, sendo necessário identificar o pagamento de qualquer tipo de impulsionamento para seguir o rastro do dinheiro. A Sra. Bruna Martins Dos Santos, German Chancellor Fellow da Fundação Alexander von Humboldt, afirmou que o Marco Civil é o único instrumento justo e democrático para mediar a relação entre usuários e provedores de aplicações de internet, já que impede a censura prévia e permite a responsabilidade subsidiários das plataformas. Sustentou que não podemos falar em imunidade das plataformas, mas numa proteção, ao menos parcial, pela responsabilidade de conteúdos de terceiros. Ponderou que censura praticada por atores privados atinge a liberdade de expressão. A tentativa do PL 3227/2021 de tentar dizer quando a moderação pode ocorrer, porém, não é o caminho. O caminho é, na sua opinião, a transparência e o fortalecimento do devido processo na atividade de moderação. A Sra. Renata Mielli, representante da Coalizão Direitos na Rede, disse haver dois extremos: a notificação e remoção imediata e o engessamento de atividade de moderação, condicionando-a à necessidade de ordem judicial prévia. Constatou que o Marco Civil não teve como foco a moderação de conteúdos na internet, mas a complexidade dos fenômenos que estão ocorrendo, sendo necessário criarmos mais regras e obrigações para que as plataformas possam exercer a tarefa de moderação de forma mais transparente e com maior previsibilidade. Deve haver o direito do usuário ao recurso de uma moderação inadequada, já que as plataformas não aplicam suas regras de moderação de maneira uniforme para todos. Notou que a moderação pode ser assimétrica até mesmo quando a plataforma deixa de moderar e que a transparência e devido processo (inclusive sobre a equipe que realiza a moderação) são alterações bastante importantes. O Sr. Marco Antonio Da Costa Sabino, representante do IBMEC, afirmou que o Marco Civil da Internet tem sistema vitorioso o judicial notice and take down. Não é possível que os intermediários sejam responsabilizados por algo sobre o qual não têm controle. Nesse sentido, não há necessidade alguma de alteração do Marco Civil, que já cria desincentivos para postagens ilícitas. Caso haja uma eventual responsabilidade solidária do usuário com o provedor de aplicações, haverá a busca de direito de regresso dos provedores sobre os usuários, inibindo a liberdade de expressão e, ao mesmo tempo, um maior incentivo para as plataformas já removerem, ab initio, o conteúdo suspeito de ilicitude. Por fim, o Francisco Brito Cruz, Diretor do InternetLab, destacou que o Marco Civil resolveu conflitos muitos importantes, mas não pretendeu solucionar tudo. Não há uma necessidade de reforma do Marco Civil, mas uma complementação, que atingirá alguns atores. O sistema de incentivos do Marco Civil não deixa que as plataformas removam postagens dos usuários por medo de responsabilização, o que é bom. Mas o art. 19 do Marco Civil não encerra o debate, como, por exemplo, no caso do dano gerado por ato próprio da plataforma, com uma remoção indevida. O PL nº 3.227/2021, do Executivo, traz partes boas e ruins, mas a restrição da moderação de conteúdo e a fiscalização por parte do Executivo podem violar a liberdade de expressão.

Na 15ª audiência pública, realizada em 28/09/2021, com o tema da "Implementação e fiscalização da lei: quem regula?", o Sr. Demi Getschko, Diretor-Presidente do Núcleo de Informação e Coordenação do Ponto br, declarou que um dos pontos importantes do MCI é o art. 19. Ressaltou que o CGI tem uma nota pública reconhecendo a importância do art. 19 da preservação da liberdade de expressão. Defendeu a manutenção da redação atual do art. 19 e lembrou que desde o começo da internet havia tensões e discussões, com conteúdos que eram malvistos por parte dos usuários. Também citou que, em 1996, houve um problema nos EUA com a publicação do "ato de decência", muito mal recebido pela comunidade da internet. Em relação ao projeto de lei, declarou que deve existir definição sobre o que é distribuição pura de distribuição e uma atividade editorial que se envolve com o conteúdo. Outro ponto é estabelecer as regras existentes em termos de uso, similares a "regras estabelecidas por clubes ou agremiações", preservados os direitos estabelecidos pela Constituição e pela legislação em vigor. Em suma, seria necessário estabelecer uma taxonomia para aplicar regras similares às da seção 230 da seção. Também afirmou que o melhor é avaliar o que é nocivo ou não à comunidade, e não o que é verdadeira ou falso. As decisões, ao fim, precisam de um crivo técnico, de alguém que tenha um conhecimento técnico suficiente para avaliar os impactos de eventuais intervenções no ambiente da internet. Em seguida, falou o professor Marcos Dantas Loureiro, Titular da Escola de Comunicação da Universidade Federal do Rio de Janeiro e membro do Comitê Gestor da Internet, que apresentou definições sobre as três camadas da internet: aplicação, infraestrutura da internet e infraestrutura de telecomunicações, afirmando que, nos últimos tempos, há um crescente debate sobre como regular a camada do "conteúdo" ofertado por meio das aplicações. Destacou que o CGI.br tem atribuições muito semelhantes às previstas para o Conselho de Transparência e Responsabilidade previsto na proposição. Assim, segundo ele, o CGI.br poderia assumir tais atribuições previstas no PL, aproveitando a expertise já desenvolvida pelo CGI.br na regulação e supervisão do funcionamento da internet no Brasil. A Sra. Bia Barbosa, representante da Coalizão Direitos na Rede, entende que um elemento fundamental para a discussão sobre eventuais novas regras sobre a internet é a definição dos atores responsáveis pela implementação e fiscalização das regras vigentes. Para ela, é essencial a existência de um órgão multissetorial para fiscalização e produção de estudos sobre o tema. Também ressaltou que a regulação da rede deve abarcar arranjos dinâmicos capazes de se adaptarem às rápidas mudanças existentes na rede. Segundo ela, o CGI.br seria o locus ideal para levar a cabo tais atribuições, por já ter quase 3 décadas de história em atuação multissetorial de governança de internet. Na sequência, o Sr. Marcelo De Souza Do Nascimento, Diretor-Geral do PROCON/DF, falou sobre a conexão entre a disseminação de informações falsas e os direitos do consumidor. Segundo ele, lida-se diariamente com publicidade enganosa na internet que têm uma estrutura muito similar às de notícias falsas. Ressaltou que no PL, na forma aprovada no Senado, há menção expressa à manutenção das garantias e princípios do Código de Defesa do Consumidor. Também mencionou que diversas aplicações de internet, como por exemplo as redes sociais, se tornaram importantes canais de comercialização de bens e serviços. Afirmou ainda que, mesmo com a promulgação da LGPD, há ainda na internet uma circulação intensa de dados pessoais de consumidores, o que fere diretamente os direitos dos consumidores. Em relação à fiscalização, ressaltou que nem mesmo os Procons têm um braço para fiscalizar a disseminação de notícias falsas relacionadas ao mercado de consumo. O Sr. Pedro Vaca, Relator Especial para Liberdade de Expressão da OEA, alertou que a complexidade técnica e a importância da internet exigem que qualquer alteração nas regras de seu uso deve ocorrer apenas após ampla discussão pública e que há no mundo diversas tentativas de captura do debate público por entes e indivíduos que investem na disseminação de desinformação. Para ele, há três fronteiras que não devem ser cruzadas, caminhos que não são recomendados: excessos regulatórios, exclusividade de regras em autorregulação; e soluções intuitivas e aceleradas. Sustentou que as regulações de internet devem ser rotineiramente revisadas e modernizadas, de preferência de um modo que dialogue com os paradigmas nacionais e com práticas internacionais, sob um paradigma harmônico com a governança internacional da internet. Por isso, o multilateralismo seria uma possibilidade interessante, que pode construir padrões e ajudar a propor soluções de maneira democrática e debatida de maneira aprofundada por especialistas. Finalmente, o sr. André Iizuka, representante da Associação Brasileira de Comércio Eletrônico – ABCOMM, apresentou a estrutura da Associação Brasileira de Comércio Eletrônico, fundada em 2014, contando com 9 mil empresas associadas. Segundo ele, é a única legítima representante do segmento.

Em 9/11/2021, foi realizada reunião do Grupo de Trabalho com representantes da academia, do setor empresarial e da academia. Na reunião 25 participantes deram suas contribuições. O Sr. Thiago Tavares, da Safernet, conceituou moderação e afirmou que a nova lei deve ser algo que ajude dar efetividade ao Marco Civil da Internet a à LGPD, inclusive por meio de ferramentas como um call center. Foco da regulação deve começar pelas atividades de outsourcing. O Sr. Francisco Brito Cruz, do Internetlab destacou pontos importantes no texto, como o fato de as decisões das plataformas serem feitas em larga escala, devendo, portanto, ser monitoradas constantemente e que exigências como equipes de língua portuguesa na moderação e relatórios específicos para o Brasil, e não globais, são necessários. O Sr. Fabro Steibel do ITS defendeu a exclusão da remuneração a empresas jornalísticas do texto e afirmou que poderia ficar mais claro que parte da proposta se aplica a uns e parte se aplica a todos. Questionou se um modelo de autorregulação regulada é realmente efetivo, ou se Estado deveria colocar seu peso. A Sra. Kalianna Puppi defendeu a possibilidade de discriminação lícita por parte das plataformas. Que é imperativo fazer distinção entre o que é lícito e o que não é. Salientou também que algumas sugestões de transparência são inexequíveis, como, por exemplo, fornecer o número de usuários brasileiros que usam a plataforma. Sugeriu também que houvesse a possibilidade de não haver recursos quando o caso envolver a publicação de conteúdos muito graves, como pedofilia. A Sra. Karen, do Youtube propôs a reformulação da definição de serviços de mensageria instantânea para excluir claramente e-mails, como fazia a redação do Senado Federal. A Sra. Flávia Xavier Anneberg, do Google, afirmou que vários artigos não se aplicam aos buscadores, eis que não constituem uma rede social, não têm seguidores, etc. Opinou que a remuneração de empresas jornalísticas acaba por desincentivar a busca por informações. O Sr. Igor Ferreira, da Camara-net, propôs fossem excluídos da proposta os buscadores, as sanções de suspensão e exclusão e a exigência de representação no Brasil, o que pode resultar em concentrações de mercado. O Sr. Felipe França levantou vários pontos merecem revisão, destacando-se o problema das contas automatizadas, do risco da imposição de sanções exageradas, que podem prejudicar o consumidor e a exclusão do tipo penal, já que o país já desfruta de várias legislações que poderiam resolver o problema que se busca solucionar. A Sra. Renata Miele destacou a importância do relatório de transparência, argumentando que não contém exigências irrazoáveis. Afirmou que o CGI terá desempenho melhor que o Conselho de Transparência proposto pelo Senado Federal. Disse ser a favor da exclusão do art. 36, que trata da questão da remuneração de empresas jornalísticas. A Sra. Caroline da ABIPAG mostrou preocupação com os pequenos e médios varejistas, para que haja um ambiente de competição saudável e sem discriminação nos mais variados mercados que compõem a internet. O Sr. Diogo Coutinho, da USP, afirmou que o PL trata mais do que fake news. Que a internet é uma grande infraestrutura, mais que uma mera rede condutora de conteúdos. Nesse sentido, defende ser necessário criar um cenário em que se assegure que pequenas e médias empresas não sejam discriminadas nos seus modelos de negócios, de modo que possam competir com as plataformas. Aduziu ser preciso subir o número mínimo de usuários para aplicação da lei, para cerca de 21 milhões de usuários cadastrados. A Sra. Ana Paula, da Brasscom, alertou que regras de transparência excessivas podem ser usadas por maus atores para burlar regras de uso, inclusive de segredo comercial. Quanto à conta automatizada destacou que não é sempre ruim e que a definição de perfilamento não deveria estar vinculada à LGPD. O Sr. Samir Nobre, da Abratel, manifestou apoio ao substitutivo e disse que a remuneração às empresas jornalísticas é bem-vinda. Sugeriu que o art. 36 fosse complementado pela proposta legislativa nesse sentido apresentada pelo deputado Filipe Barros. A Sra. Lailla Malaquias, do Twitter manifestou preocupação de que a legislação possa ficar obsoleta rapidamente. Destacou que o uso de contas automatizadas pode ser positivo, já que prestam vários serviços úteis aos usuários. Seria ideal colocar um mecanismo de vedação apenas de uso ilícito de contas automatizadas. A Sra. Adriele Britto, da Assespro, apontou problemas com as sanções do art. 29 especialmente as de suspensão e proibição. Sugeriu que a poderia ser reduzida para 0,5%. A Sra. Raquel Cândido, da Aba, ressaltou que deve prevalecer a liberdade dos atores e que já existem mecanismos que garantem, de maneira eficiente, a autorregulação da publicidade no Brasil. O Sr. Diego de Lima Guald, da IAB, salientou que se deve ficar atento às consequências negativas não pretendidas pelo texto. Destacou que já existe conceito de publicidade na legislação, o que pode gerar confusão com conceito já existente de propaganda. Propôs que os arts. 19, 20 e 21 sejam ser reconsiderados. Marcelo Bechara, representante da Coalizão Liberdade com Responsabilidade, afirmou que a desinformação foi um câncer na sociedade brasileira. Destacou que a lei de publicidade brasileira não é respeitada e que as plataformas de internet somente começaram a agir contra a desinformação recentemente, com a pandemia. Ivar Hartmann, do Insper, afirmou que houve avanço nas alterações do Substitutivo e que a biblioteca de anúncios deve ser ampla o suficiente, não contendo apenas propaganda eleitoral. Os relatórios, na sua opinião, devem manter ampla transparência. Ressaltou que a legislação europeia traz muitas exigências que estão dispersas e não no mesmo dispositivo, com o qual se comparam os critérios de transparência no Brasil. Dessa forma, explicou, não haveria exigência maiores na proposta brasileira. A Sra. Bia Barbosa, do CGI.br destacou que as atribuições dadas pela proposta ao comitê gestor não são estranhas às atividades próprias e atuais do CGI. Frisou que, no entanto, existem preocupações de membros do comitê diante de novas atribuições. O Sr. Dario Durigan, do Whatsapp, salientou que houve avanços, mas que o art. 12, I, ainda representa uma intervenção muito ampla no modelo de negócios da empresa, estabelecendo vedação que tornaria o serviço pior para o usuário. Apontou também que usuários poderiam acabar usando chips de outros países para burlar o sistema, o que tornaria a solução vazia. O Sr. Juliano Maranhão - Instituto Legal Grounds, parabenizou o trabalho do relator e sublinhou que os mecanismos de transparência devem abranger todo aspecto de gestão técnica de eventuais abusos. Não apenas do resultado da moderação, mas de seu processo. Para ele, deve haver facilitação de acesso para instituições científicas com projetos bem delimitados aos dados das plataformas, a fim de que as primeiras possam contribuir efetivamente para o debate. O Sr. João Paulo Bachur, do IDP/CEDIS destacou que o capítulo dos agentes públicos e o art. 13 são meritórios e trouxeram avanços e que a moderação das plataformas é atividades importante para estimular a liberdade de expressão e não para tolher a expressão. Observou que a instituição de regras de remuneração do jornalismo pelos provedores de aplicações pode resultar, na prática, em redução do acesso às notícias. O Sr. Diogo Rais, do Instituto Liberdade Digital alertou para não confundir entre o conteúdo que meramente cita deputado com o conteúdo que veicula uma propaganda eleitoral. Até porque, segundo ele, os buscadores ficariam em situação complicada para diferenciar, identificar a moderar a quantidade de conteúdos com citações a candidatos e diferenciar isso da propaganda eleitoral. Por fim, o Sr. Jonas Valente, do Laboratório de Políticas Públicas da UnB, entende que a inserção dos buscadores no texto da proposta não foi artificial e que existem várias atividades dessas plataformas que merecem regulação. Salientou também que os relatórios atuais não dão as informações de forma suficientemente transparente.

À proposição principal foram apensados os Projetos de Lei nºs 1676/2015, de autoria do Deputado Veneziano Vital do Rêgo, 2712/2015, de autoria do Deputado Jefferson Campos, 6812/2017, de autoria do Deputado Luiz Carlos Hauly, 7604/2017, de autoria do Deputado Luiz Carlos Hauly, 8592/2017, de autoria do Deputado Jorge Côrte Real, 9533/2018, de autoria do Deputado Francisco Floriano, 9554/2018, de autoria do Deputado Pompeo de Mattos, 9647/2018, de autoria do Deputado Heuler Cruvinel, 9761/2018, de autoria do Deputado Celso Russomanno, 9838/2018, de autoria do Deputado Arthur Oliveira Maia, 9884/2018, de autoria do Deputado Fábio Trad, 9931/2018, de autoria da Deputada Erika Kokay, 10860/2018, de autoria do Deputado Augusto Carvalho, 200/2019, de autoria do Deputado Roberto de Lucena, 241/2019, de autoria do Deputado Júnior Ferrari, 346/2019, de autoria do Deputado Danilo Cabral, 1974/2019, de autoria do Deputado Reginaldo Lopes, 2601/2019, de autoria do Deputado Luis Miranda, 2602/2019, de autoria do Deputado Luis Miranda, 3389/2019, de autoria do Deputado Fábio Faria, 3857/2019, de autoria da Deputada Jaqueline Cassol, 4925/2019, de autoria do Deputado Moses Rodrigues, 5260/2019, de autoria do Deputado Nereu Crispim, 5776/2019, de autoria do Deputado Afonso Motta, 5959/2019, de autoria do Deputado Luizão Goulart, 6351/2019, de autoria do Deputado Luis Miranda, 283/2020, de autoria do Deputado Cássio Andrade, 437/2020, de autoria do Deputado Alexandre Frota, 475/2020, de autoria do Deputado Capitão Alberto Neto, 517/2020, de autoria do Deputado José Medeiros, 693/2020, de autoria do Deputado Alexandre Padilha, 705/2020, de autoria do Deputado Célio Studart, 808/2020, de autoria do Deputado José Guimarães, 988/2020, de autoria do Deputado Alexandre Frota, 1258/2020, de autoria do Deputado Luis Miranda, 1394/2020, de autoria do Deputado Zé Vitor, 1941/2020, de autoria do Deputado Wilson Santiago, 2196/2020, de autoria do Deputado Alexandre Frota, 2284/2020, de autoria do Deputado Alexandre Frota, 2389/2020, de autoria da Deputada Rejane Dias, 2763/2020, de autoria do Deputado Marcelo Brum, 2790/2020, de autoria do Deputado José Nelto, 2844/2020, de autoria do Deputado Joseildo Ramos, 2854/2020, de autoria da Deputada Maria do Rosário, 2883/2020, de autoria do Deputado Filipe Barros, 3029/2020, de autoria do Deputado Alexandre Frota, 3044/2020, de autoria do Deputado Paulo Ramos, 3063/2020, de autoria do Deputado Felipe Rigoni, 3119/2020, de autoria do Deputado Mário Negromonte Jr., 3144/2020, de autoria da Deputada Joice Hasselmann, 3222/2020, de autoria do Deputado Frei Anastacio Ribeiro, 3307/2020, de autoria do Deputado Alexandre Frota, 3395/2020, de autoria da Deputada Bia Kicis, 3573/2020, de autoria do Deputado Luiz Philippe de Orleans e Bragança, 3627/2020, de autoria do Deputado Nereu Crispim, 4418/2020, de autoria do Deputado David Soares, 127/2021, de autoria do Deputado Nelson Barbudo, 213/2021, de autoria do Deputado Luiz Philippe de Orleans e Bragança, 246/2021, de autoria da Deputada Caroline de Toni, 291/2021, de autoria do Deputado Daniel Silveira, 356/2021, de autoria do Deputado General Girão, 388/2021, de autoria do Deputado Carlos Jordy, 449/2021, de autoria do Deputado Igor Kannário, 495/2021, de autoria da Deputada Dra. Soraya Manato, 649/2021, de autoria do Deputado Pedro Lucas Fernandes, 865/2021, de autoria do Deputado Ronaldo Carletto, 1001/2021, de autoria do Deputado Helder Salomão, 1362/2021, de autoria do Deputado Daniel Silveira, 1589/2021, de autoria da Deputada Dra. Soraya Manato, 1590/2021, de autoria da Deputada Renata Abreu, 1743/2021, de autoria do Deputado Giovani Cherini, 1772/2021, de autoria do Deputado Luiz Philippe de Orleans e Bragança, 1897/2021, de autoria do Deputado Alexandre Frota, 1923/2021, de autoria do Deputado Alexandre Frota, 2060/2021, de autoria do Deputado Altineu Côrtes, 2390/2021, de autoria do Deputado Emanuel Pinheiro Neto, 2393/2021, de autoria da Deputada Renata Abreu, 2401/2021, de autoria do Deputado Reinhold Stephanes Junior, 2831/2021, de autoria do Deputado Capitão Alberto Neto, 2989/2021, de autoria do Deputado Marx Beltrão, 3366/2021, de autoria da Deputada Rejane Dias, 3700/2021, de autoria do Deputado José Guimarães, 4134/2021, de autoria do Deputado Carlos Bezerra, 143/2022, de autoria do Deputado Coronel Armando, 714/2022, de autoria do Deputado Nereu Crispim, 836/2022, de autoria do Deputado Eduardo Bolsonaro, 2516/2022, de autoria do Deputado José Nelto, 125/2023, de autoria da Deputada Sâmia Bomfim, 1087/2023, de autoria do Deputado Guilherme Boulos, 1116/2023, de autoria do Deputado Hercílio Coelho Diniz.

Em apertada síntese, os Projetos de Lei nºs 3063/2020, 3627/2020, 3389/2019, 4925/2019, 5260/2019, 437/2020, 2284/2020, 6351/2019, 3044/2020, 1591/2021 e 2763/2020 abordam a proibição do uso de contas automatizadas em plataformas de internet.

Os Projetos de Lei nºs 3063/2020, 3144/2020, 2883/2020, 127/2021, 1362/2021 e 865/2021 trazem obrigações de uso de checadores de fato para analisar desinformação nas plataformas de internet.

Por sua vez, os Projetos de Lei nºs 3063/2020, 283/2020, 2854/2020, 2883/2020, 649/2021, 3119/2020, 2393/2021, 3385/2020, 291/2021, 449/2021, 3573/2021, 213/2021, 495/2021, 2401/2021, 127/2021, 246/2021, 1362/2021, 865/2021, 2390/2021, 649/2021, 10860/2018, 5776/2019, 475/2020, 4418/2020, 4925/2019, 5260/2019, 865/2021, 1087/2023, 1116/2023, 2516/2022, 836/2022, 2712/2015, 437/2020, 2284/2020, 6531/2019, 7604/2017, 9647/2018, 346/2019, 517/2020, 1116/2023, 1087/2023, 3395/2020, 2601/2019, 2602/2019, 1941/2020, 2196/2020, 2831/2021, 3700/2021, 1589/2021, 1897/2021, 5959/2019, 143/2022, 1772/2021 e 2060/2021 estabelecem regras e critérios para a remoção ou restrições ao conteúdo, que podem implicar cerceamento ao direito de liberdade de expressão e sobre responsabilidades dos provedores.

O Projeto de Lei nº 3144/2020 cria a exigência de um órgão regulador para as questões atinentes à desinformação no âmbito da internet. Já o Projeto de Lei nº 1974/2021 institui a Semana Nacional de enfrentamento a Fake News e Cria o Dia Nacional de enfrentamento as Fake News a ser comemorado todo dia 1º de abril de cada ano.

Os Projetos de Lei nºs 3063/2020, 3144/2020, 283/2020, 3029/2020, 2883/2020, 649/2021, 3119/2020, 2393/2021, 449/2021, 127/2021, 1362/2021, 2390/2021, 1743/2021, 2989/2021, 3366/2021 e 1590/2021 estabelecem vários parâmetros de transparência a serem atendidos pelas plataformas de internet no que tange à desinformação.

Os Projetos de Lei nºs 1676/2015, 8592/2017, 9554/2018, 9533/2018, 9761/2018, 9838/2018, 9884/2018, 9931/2018, 200/2019, 241/2019, 3307/2020, 693/2020, 705/2020, 1394/2020, 988/2020, 6812/2017, 1923/2021, 1258/2020, 1941/2020, 2389/2020, 2790/2020, 1001/2021, 2196/2020, 3857/2019, 4134/2021, 2844/2020, 3222/2020, 356/2021 e 388/2021 criam tipos penais ou sanções para diversas condutas que disseminam informações falsas.

A proposição e os apensos foram distribuídos, inicialmente, às Comissões de Ciência e Tecnologia, Comunicação e Informática e de Finanças e Tributação, para apreciação quanto ao Mérito, nos termos do art. 54, do Regimento Interno da Câmara dos Deputados - RICD, e para a Comissão de Constituição e Justiça e de Cidadania para análise quanto ao mérito. A proposição está sujeita à apreciação do Plenário e o regime de tramitação é o de prioridade, nos termos do art. 151, II, do RICD.

Em 21/06/2021 foi criado, por meio do Ato do Presidente publicado no Diário da Câmara dos Deputados, Suplemento, Páginas 5-6, de 23/06/2021, o Grupo de Trabalho destinado a analisar e elaborar parecer ao Projeto de Lei nº 2630, de 2020, e apensados, que visa ao aperfeiçoamento da legislação brasileira referente à liberdade, responsabilidade e transparência na internet.

Ao todo, o Grupo de Trabalho realizou, presencial e remotamente, 27 reuniões técnicas e deliberativas, incluindo a realização de 15 audiências públicas, com a participação de mais de 150 especialistas na matéria, que tiveram a oportunidade de amplo e profícuo debate sobre o tema.

No dia 28/11/2021, apresentamos uma primeira proposta formal de relatório (REL 1/2021 GTNET) e, em 22/1/2021, após deliberações e reuniões técnicas com os deputados, foi apresentado novo relatório (REL 2/2021 GTNET). Em seguida, em 1º/12/2021, por sua vez, apresentamos uma complementação de voto, baseada em sugestões apresentadas pelos deputados integrantes do grupo de trabalho. Finalmente, nos dias 1º e 07/12/2021, respectivamente, após várias reuniões deliberativas, foram aprovados o texto-base da proposta e votadas as sugestões apresentadas pelos deputados, consolidando o texto que apresentaremos a seguir.

A matéria foi despachada para análise do mérito nas Comissões de Trabalho, Administração e Serviço Público; de Seguridade Social e Família; Ciência e Tecnologia, Comunicação e Informática; despachada à Comissão de Finanças e Tributação, para análise do mérito e da verificação da adequação financeira e orçamentária; e à Comissão de Constituição e Justiça e de Cidadania, para análise do mérito e para exame da constitucionalidade, juridicidade e técnica legislativa. Em razão da distribuição a mais de três Comissões de mérito, foi então determinada a criação de Comissão Especial para analisar a matéria, conforme disposto no inciso II, do art. 34, do Regimento Interno da Câmara dos Deputados (RICD). Foi aprovado requerimento de urgência, estando a matéria pronta para apreciação em Plenário.

É o relatório.

II - VOTO DO RELATOR

Considero meritório e oportuno o projeto ora examinado, tendo em vista que o surgimento da internet revolucionou as formas de comunicação, permitindo que a informação seja acessada diretamente pelas pessoas, o que transformou potencialmente cada usuário da rede mundial em uma fonte de conteúdos. O modelo ponta-a-ponta da internet permite que o fluxo de dados e conteúdos circule mais livremente, fomentando os direitos de liberdade de expressão e incrementando o acesso à informação.

A liberdade na internet, embora propiciadora da sociedade em rede e concretizadora de vários direitos fundamentais, traz consigo algumas externalidades negativas. Uma delas são as notícias falsas ou, como têm sido comumente chamadas, as fake news. A informação ubíqua gerou escassez de audiência, sendo cada vez mais necessário que os conteúdos consigam de alguma forma capturar a atenção do público. Nesse sentido, notícias falsas, clickbaits, são instrumentos cada vez mais utilizados.

A emergência de um ecossistema propício à propagação de desinformação cria versões concorrentes da verdade e da acurácia das notícias, o que acarreta enormes dificuldades de diferenciação entre fatos verificados e pura desinformação. Um estudo do MIT, por exemplo, descobriu que o 1% das notícias falsas mais vistas pode atingir em média até 100 mil pessoas, enquanto as verdadeiras raramente atingem mais de mil pessoas.

Os efeitos da desinformação podem ser fatais para a democracia, pois reduzem a capacidade cognitiva da população, influenciam o processo eleitoral, prejudicam versões políticas concorrentes e calam vozes dissonantes, empobrecendo o debate e a multiplicidade de visões de mundo. Experiências as mais variadas, que vão desde o linchamento de reputações nas redes sociais, passando pela intimidação de jornalistas e figuras públicas, até a produção profissional de notícias distorcidas para fins políticos e econômicos, mostram a gravidade do problema e a necessidade de o enfrentarmos.

Vários países, como a Alemanha e a França, já impuseram obrigações aos meios digitais com o fim de regrar a disseminação de desinformações, inclusive com prazos e ações. Na Alemanha foi editada, em 2017, lei que trata da retirada de conteúdo da internet. A Lei é válida para redes sociais com mais de 2 milhões de usuários, o que não inclui empresas de conteúdos jornalísticos. Para essa lei, são considerados ilegais os conteúdos relacionados a artigos específicos do Código Penal, incluindo ameaças à democracia, estado de direito, defesa nacional e ordem pública – ameaças, incitação das massas, descrições de violências –, ofensas religiosas, de ideologia ou à auto-determinação sexual; disseminação ou produção de pornografia infantil; e insulto, difamação, e falsificação de materiais probatórios.

De acordo com essa legislação, as redes sociais que receberem mais de 100 reclamações anuais deverão publicar relatório descrevendo os procedimentos utilizados, autores das reclamações por categoria de usuários, especialistas e associações consultadas, bloqueios feitos e tempos de reação (24h, 48h, etc). Em termos procedimentais, as redes sociais devem reconhecer reclamações imediatamente e remover ou bloquear o acesso a conteúdos manifestamente ilegais em 24h do recebimento da reclamação, em até 7 dias para os não manifestos e em prazos maiores, caso solicitados esclarecimentos ao usuário ou derivado o conteúdo em questão para entidade independente de verificação. As instituições de verificação devem ser custeadas pelas redes sociais e as penalidades, aplicadas pelo Ministério da Justiça, podem chegar a até 500.000 euros em caso de negação de prestação de informações e de até 5 milhões para os demais casos.

A França, por sua vez, editou sua legislação, "Luta contra a Manipulação da Informação", em 2018. Primeiro, modificou o Código Eleitoral para determinar que, durante os três meses precedentes e até a data da votação eleitoral, serviços relevantes digitais deverão: (a) indicar os contratantes de conteúdos patrocinados, quando relativos a debates de interesse geral; informar como os dados pessoais serão utilizados em conteúdos relacionados a debates de interesse geral; e publicar informações agregadas; (b) quando houver alegações ou acusações imprecisas ou enganosas de um fato que possa afetar a lisura das eleições e forem divulgados de maneira deliberada, artificial ou automatizada e massiva por meio eletrônico, o juiz poderá, a pedido do promotor público, qualquer candidato, qualquer partido ou grupo ou pessoa interessada, agir para impedir essa divulgação em até 48h.

Além disso, a lei francesa modificou a Lei de Liberdade das Comunicações (Lei 86-1067) para permitir que o Conselho Superior do Audiovisual possa rejeitar plano de trabalho de emissoras (obrigatório para os canais de televisão) que contenham emissões que impliquem sério risco de ataque à dignidade da pessoa humana, à liberdade e à propriedade, à pluralidade de pensamento e opinião, proteção da infância e adolescência, ordem pública, defesa nacional ou aos interesses fundamentais da Nação, incluindo o funcionamento regular de suas instituições.

Durante os três meses precedentes à eleição, caso sejam deliberadamente disseminadas informações falsas que possam alterar a imparcialidade do pleito, o Conselho pode ordenar a suspensão da transmissão do serviço de comunicação eletrônica até a conclusão do pleito, cabendo recurso em até 48h.

No âmbito da internet, a lei francesa estabeleceu que os provedores de serviços on-line devem: i) incluir dispositivo indicando que o conteúdo é falso, especialmente quando patrocinado; ii) identificar os contratantes de conteúdos patrocinados em debates de interesse geral; iii) realizar ações de educação; iv) informar o Conselho acerca das medidas tomadas; v) indicar interlocutor e representante legal para este fim.

Vale notar que parte da lei francesa foi declarada parcialmente inconstitucional, mas parte relevante, incluindo a descrita no último parágrafo, sobrevive.

Mais recentemente, foram aprovadas duas importantes legislações, o Digital Services Act – DSA e o Digital Markets Act - DMA. No Digital Markets Act, as plataformas de intermediação da internet deverão observar uma série de obrigações já que constituem "elementos estruturantes fundamentais da atual economia digital, responsáveis pela intermediação da maioria das transações entre utilizadores finais e utilizadores profissionais".

No que mais nos interessa, o Digital Services Act entrou em vigor em 22/11/2022, com eficácia a partir do dia 17/02/2024. A normativa regula as obrigações de serviços digitais que atuam como intermediários, conectando consumidores com bens, serviços e conteúdo. O objetivo geral é proteger os usuários e seus direitos fundamentais online estabelecendo mecanismos de transparência e accountability uniformes em toda a Europa.

O DSA combate ao conteúdo online ilegal (arts. 4º, 9º do DSA) por meio da adoção de mecanismos que permitam aos usuários identificar e sinalizar (flag) conteúdo ilegal online. Esses conteúdos ilegais são definidos como "quaisquer informações que, por si sós ou em relação a uma atividade, incluindo a venda de produtos ou a prestação de serviços, não estejam em conformidade com o direito da União ou com o direito de qualquer um dos Estados-Membros, independentemente do objeto ou da natureza precisa desse direito". Há também obrigação de iniciativas próprias dos provedores ou intermediários (arts. 7º e 8º do DSA), incentivando a que os provedores realizem, de boa-fé e de forma diligente, investigações voluntárias de própria iniciativa com o objetivo de identificar, suprimir ou bloquear o acesso a conteúdos ilegais. Tal ação não esvazia as eventuais hipóteses de inimputabilidade das plataformas em relação a conteúdos de terceiros.

Um outro ponto do DAS é a atuação Contra Conteúdos Ilegais (art. 9º do DSA). As autoridades judiciárias ou administrativas competentes poderão emitir decisão contra determinado conteúdo ilegal e as plataformas deverão agir contra tal conteúdo e informar do seguimento que foi dado à situação, especificando se e quando a ordem foi executada. A referida decisão deve ser bastante detalhada, incluindo: (i) a base jurídica da ordem; (ii) informações que identifiquem a autoridade emitente; (iii) informações que permitam à plataforma identificar o destinatário ou destinatários específicos a respeito dos quais são procuradas informações, como nomes de conta ou identificadores únicos; (iv) exposição de motivos; (v) informações sobre os mecanismos de correção à disposição da plataforma.

Também de acordo com o DSA (arts. 11 e 12), os prestadores de serviços intermediários devem designar um ponto único de contato que lhes permita comunicar-se diretamente, por via eletrônica, com as autoridades. Também os usuários das plataformas têm direito a um ponto de contato com as plataformas. Sobre a representação legal, o art. 13 do DSA assinala que os intermediários que não possuam um estabelecimento na União Europeia, mas que ofereçam serviços na União, devem designar, por escrito, uma pessoa natural ou jurídica para agir como seu representante legal. Tal representante deve possuir os poderes necessários e recursos suficientes para assegurar uma cooperação eficiente e tempestiva com as autoridades.

Outra questão importante é a obrigação de apresentação de relatórios de transparência (art. 15 do DSA). Nesse sentido, devem ser apresentadas anualmente informações sobre qualquer atividade de moderação de conteúdos, incluindo a categorização da moderação, seja por iniciativa própria, seja em razão de conteúdo ilegal ou de pedido da autoridade competente, entre outras hipóteses. Também deve ser informada a eventual utilização de meios automatizados para fins de moderação de conteúdos, incluindo uma descrição qualitativa, os objetivos, os indicadores de precisão e a eventual taxa de erros desses meios automatizados.

Foi também instituído um sistema Interno de Gestão de Reclamações (art. 20 do DSA), em que as plataformas devem manter, por um período mínimo de seis meses após decisão de moderação, acesso a um sistema interno eficaz de gestão de reclamações que permita aos usuários apresentar reclamações, de forma eletrônica e gratuita, contra a decisão tomada pela plataforma. Isso se aplica para decisões que: a) suprimam a informação, bloqueiem o acesso ou restrinjam a sua visibilidade; b) que suspendam ou cessem a prestação do serviço, no todo ou em parte, aos destinatários; c) que suspendam ou encerrem a conta dos destinatários; d) que suspendam, cessem ou de qualquer outra forma restrinjam a capacidade de monetizar as informações fornecidas pelos destinatários.

Ademais, nos termos do art. 22 do DSA, o Estado pode certificar determinadas empresas que seriam sinalizadores de confiança (fact checker), com o objetivo de notificar a plataforma para remoção de conteúdos ilegais. Um sinalizador de confiança deve: (i) possuir conhecimentos especializados e competências específicas para efeitos de detecção, identificação e notificação de conteúdos ilegais; b) ser independente de quaisquer plataformas; c) realizar as suas atividades tendo em vista a apresentação de notificações de forma diligente, precisa e objetiva. As empresas de sinalização devem publicar relatório de transparência anualmente e suas ações devem ser fiscalizadas para evitar excessos.

Foram estabelecidas balizas e medidas e proteção contra a utilização abusiva (art. 23 do DSA). Nesse ponto, as plataformas podem suspender, por um período razoável, as pessoas e contas que atuam abusivamente tanto na publicação de conteúdos ilegais como na denúncia e reclamações infundadas sobre conteúdos ilegais de terceiros. Tais procedimentos devem ser feitos de forma transparente e estar muito claros nos termos e condições de uso das plataformas.

Outra abordagem interessante é a vedação explícita ao chamado dark pattern (art. 25 do DSA). Os fornecedores de plataformas online não podem atuar com o objetivo de enganar ou manipular os destinatários do seu serviço ou para distorcer ou prejudicar substancialmente a capacidade dos usuários de tomarem decisões livres e informadas sobre o conteúdo a ser acessado. Essa vedação inclui, por exemplo, dar maior destaque a determinadas opções do que a outras ao pedir ao usuário do serviço uma decisão, ou tornar o procedimento de cancelamento de um serviço mais difícil do que a sua assinatura.

Sobre as regras para publicidade (art. 26 do DSA), os usuários do serviço devem conseguir identificar de forma clara, concisa, inequívoca e em tempo real: a) quais conteúdos constituem um anúncio publicitário, através de sinalização bem visível; b) o beneficiário do anúncio, ou seja, aquele em cujo nome o anúncio publicitário é apresentado; c) a pessoa que paga o anúncio publicitário, caso seja diferente do beneficiário; d) informações pertinentes, direta e facilmente acessíveis a partir do anúncio publicitário, sobre os principais parâmetros utilizados para determinar o destinatário da exibição do anúncio publicitário e, se for o caso, sobre como alterar esses parâmetros.

O DAS instituiu obrigações obre a transparência do algoritmo de recomendação (art. 27 do DSA). Nesse caso, as plataformas devem ser transparentes, nos seus termos de uso, por meio de linguagem clara e simples, em relação a quais são os principais parâmetros utilizados nos seus sistemas de recomendação, bem como quaisquer opções que permitam aos destinatários do serviço alterar ou influenciar estes parâmetros. O usuário dever ser informado em relação aos critérios mais significativos para determinar as informações sugeridas a ele e os motivos da importância relativa destes parâmetros.

Foram adotadas, também, obrigações de avaliação de Risco (arts. 33 a 36 do DSA) por parte das grandes plataformas. Vale notar que o DSA considerou que as grandes plataformas são aquelas com mais de 45 milhões de usuários no âmbito da União Europeia, devem identificar, analisar e avaliar diligentemente todos os riscos sistêmicos potencialmente decorrentes dos seus serviços, incluindo os sistemas algorítmicos. Quanto aos riscos sistêmicos, estes incluem a difusão de conteúdos ilegais, efeitos negativos reais ou previsíveis no exercício dos direitos fundamentais, no discurso cívico e nos processos eleitorais, bem como na segurança pública e também potenciais efeitos negativos em relação à violência contra a mulher, à proteção da saúde pública e aos menores, e as consequências negativas graves para o bem-estar físico e mental da pessoa.

Assim, a partir da detecção dos riscos específicos, as plataformas devem adotar medidas de atenuação razoáveis, proporcionais e eficazes, adaptadas aos riscos sistêmicos específicos de cada situação. Tais medidas podem incluir: (a) adaptação dos processos de moderação de conteúdos, incluindo a rapidez e a qualidade do tratamento das notificações relativas a tipos específicos de conteúdos ilegais; (b) execução de testes e a adaptação dos seus sistemas algorítmicos, incluindo os seus sistemas de recomendação; (c) utilizar ou ajustar a cooperação com sinalizadores de confiança; (d) adoção de medidas específicas para proteger os direitos das crianças, nomeadamente instrumentos de verificação da idade e de controle parental.

Em caso de ameaças graves, a autoridade pode exigir das plataformas a identificação e aplicação de medidas específicas, eficazes e proporcionais para prevenir, eliminar ou limitar a referida ameaça grave. Para isso, há um procedimento bastante pormenorizado.

Outro ponto relevante da norma europeia diz respeito às auditorias independentes (art. 37 do DSA), a que as grandes plataformas devem se sujeitar, ao menos uma vez por ano, e que será paga por elas próprias, visando verificar o cumprimento das medidas impostas na lei.

Sobre os sistemas de recomendação (art. 38 do DSA), as plataformas de grande dimensão que os utilizem devem oferecer pelo menos uma opção para cada um dos seus sistemas de recomendação que não se baseie na definição de perfis. Ou seja, uma obrigação de se ter algoritmos alternativos. Também há Obrigações de dar acesso aos dados (art. 40 do DSA) necessários para controlar e avaliar o cumprimento do presente regulamento.

Além disso, foi instituída uma taxa de supervisão (art. 43 do DSA) para atividades de fiscalização das autoridades em relação ao cumprimento das obrigações dispostas na lei. O valor das taxas será determinado pela Comissão Europeia e irá variar conforme o tipo de plataforma e as atividades a serem fiscalizadas, devendo seguir alguns critérios, como os custos efetivos da fiscalização e um limite global de 0,05% do resultado líquido anual a nível mundial da plataforma no exercício precedente.

Questão relevante diz respeito aos Códigos de Conduta (arts. 45 a 47 do DSA), cuja elaboração pelas plataformas será incentivada pela União Europeia para enfrentar os desafios decorrentes de conteúdos ilegais e de riscos sistêmicos. Nesse último caso, as autoridades poderão convidar as plataformas e a sociedade civil a participarem na elaboração de códigos de conduta que estabeleçam compromissos para tomar medidas específicas de atenuação de riscos. A Comissão e a autoridade nacional podem avaliar se os Códigos de Conduta satisfazem os objetivos especificados. Em caso de não cumprimento sistemático, tanto a Comissão como as autoridades podem convidar os signatários dos códigos a adotarem as medidas necessárias.

A legislação europeia também determinou que os EstadosMembros devem designar uma ou várias autoridades competentes como responsáveis pela supervisão dos prestadores de serviços intermediários e pela execução do presente Regulamento (arts. 49 a 51 do DSA). A autoridade deve possuir "total independência", permanecer "livre de qualquer influência externa, direta ou indireta, e não pode procurar nem aceitar instruções de qualquer outra autoridade pública ou de qualquer entidade privada". A Comissão Europeia retém competências para fiscalizar as grandes plataformas.

Quanto às sanções, previstas no art. 52 do DSA, estas serão definidas pelo Estados-membros separadamente, mas devem atender aos seguintes parâmetros: (i) em caso de descumprimento de uma obrigação prevista no DAS, a multa deve ser de, no máximo, 6% do volume de negócios anual a nível mundial da plataforma no exercício anterior; (ii) caso haja fornecimento de informações incorretas, incompletas ou enganosas, ausência de resposta ou não retificação de informações incorretas, incompletas ou enganosas ou a recusa de sujeição a uma inspeção, a multa deve ser de, no máximo, 1% do rendimento ou do volume de negócios anual a nível mundial da plataforma; e (c) o valor máximo das multas deve corresponder a 5% do volume de negócios médio diário a nível mundial ou do rendimento médio diário da plataforma no exercício anterior, calculado a partir da data especificada na decisão em causa. Vale notar que os usuários (art. 54 do DSA) do serviço das plataformas têm o direito de pedir uma indenização às plataformas no que diz respeito a quaisquer perdas ou danos sofridos devido à violação das obrigações decorrentes do DSA.

Nos Estados Unidos, tanto o presidente anterior quanto o pediram alterações no texto da chamada seção 230, do Communications Decency Act. A norma foi criada nos anos 90 com duas finalidades. Primeiro, isentar de responsabilidade o provedor de aplicações da responsabilidade por conteúdos de terceiros e, segundo, para permitir a esses provedores a remoção de conteúdos obscenos, sensuais ou lascivos, por exemplo. Sucessivas interpretações extensivas da justiça ao dispositivo transformaram a seção 230 em uma espécie de direito de moderar o conteúdo de terceiros por parte dos provedores de aplicações, que passaram a gozar de direitos editoriais sem a contrapartida dos deveres correspondentes dos meios de comunicação tradicionais.

Além disso, há, nos Estados Unidos discussões importantes no Poder Judiciário, como o caso Nextchoice v. Paxton, que discute os limites do direito à liberdade de expressão nas atividades de moderação das grandes plataformas.

Diante disso, é urgente que possamos reequilibrar o ambiente digital, especialmente nas redes sociais e nos serviços de mensageria privada, de modo que possam ser instrumentos que fomentem a liberdade de expressão e a discussão civilizada e factual das diferenças políticas de nosso povo.

É, pois, com grande satisfação que relatamos o Projeto de Lei nº 2.630, de 2020, que institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet. Trata-se de uma proposta abrangente e ousada, que tem por objetivo criar ambiente que, embora minimamente regulado, preservando as liberdades fundamentais de expressão e do acesso à informação, estabeleça a possibilidade de controles sobre notícias falsas.

No capítulo I, a proposta estabelece as disposições preliminares, que incluem o âmbito de aplicação da lei, os princípios e objetivos a serem adotados e as definições a serem utilizadas quando da aplicação da presente proposta.

Na linha condutora de nosso Substitutivo, decidimos estender a aplicação da lei para provedores de aplicações que são ferramentas de busca, além dos provedores de redes sociais e serviços de mensageria privada, que passamos a denominar mensageria instantânea. A aplicação da presente proposta legislativa incide apenas sobre provedores que ofertem serviços ao público brasileiro e exerçam atividade de forma organizada, cujo número de usuários registrados no país seja superior a 10.000.000 (dez milhões).

Além disso, abrangemos também os provedores de aplicações ofertantes de conteúdo sob demanda, independentemente do número de usuários, para questões atinentes aos direitos autorais.

Estão também sob a égide da proposta os provedores cujas atividades sejam realizadas por pessoa jurídica sediada no exterior. De qualquer modo, ficam excluídos provedores que se configurem como enciclopédias online sem fins lucrativos, repositórios científicos e educativos, plataformas de desenvolvimento e compartilhamento de software de código aberto, e as plataformas fechadas de reuniões virtuais por vídeo ou voz, os repositórios científicos e educativos, as ferramentas de busca e disponibilização de dados obtidos do poder público, em especial dos órgãos e entidades previstos no art. 1º da Lei nº 12.527, de 18 de novembro de 2011, e plataformas de jogos e apostas online.

Ademais, determinamos que as pessoas jurídicas referidas no caput do art. 2º serão consideradas meios de comunicação social para fins do disposto no art. 22 da Lei Complementar nº 64, de 18 de maio, de 1990, a fim de que seja possível apurar uso indevido, desvio ou abuso do poder econômico ou do poder de autoridade, ou utilização indevida de provedores, em benefício de candidato ou de partido político.

Incorporamos ao rol de princípios o da proteção da saúde pública, tema por si só de relevância inquestionável, mas que, em meio à pandemia de Covid-19, ganhou ainda mais destaque. Acrescentamos o dever de vedação à discriminação ilícita ou abusiva de usuários pelos serviços dos provedores de que trata a proposta, inclusive quanto a dados atualizados e a não restrição técnica de funcionalidades, salvo em casos de descumprimento do disposto nesta proposta.

Ademais, aditamos os princípios constantes de várias leis, tais como aqueles compreendidos na Lei nº 4.680, de 18 de junho de 1965 – Marco Legal da Atividade Publicitária, a Lei nº 12.529, de 30 de novembro de 2011, que estrutura o Sistema Brasileiro de Defesa da Concorrência, a Lei nº 13.709, de 14 de agosto de 2018 - Lei Geral de Proteção de Dados Pessoais e a Lei nº 14.197, de 1º de setembro de 2021, que tipifica crimes contra o Estado Democrático de Direito. Acrescentamos, também, parágrafo dispondo que a liberdade de expressão é direito fundamental dos usuários dos provedores de que trata esta proposta, nos termos do art. 5º, inciso IX, da Constituição Federal.

No que se refere aos objetivos, no art. 4º, destacamos desideratos como o fortalecimento do processo democrático e o fomento à diversidade de informações no Brasil, a garantia da transparência dos provedores em relação a suas atividades com o usuário, incluindo sobre seus procedimentos de elaboração e modificação de seus termos de uso, a adoção de critérios de moderação e recomendação de conteúdos e identificação de conteúdos publicitários ou impulsionados.

Desse modo, emprestamos maior relevo à garantia da transparência, do contraditório, da ampla defesa e do devido processo em relação a procedimentos de aplicação de termos e políticas de uso e outras políticas próprias da plataforma, em particular quando se tratar de medidas que restrinjam a liberdade de expressão ou as funcionalidades dos conteúdos e contas de seus usuários, incluindo os casos de exclusão, indisponibilização, redução de alcance ou sinalização de conteúdos e contas. Acrescentamos o objetivo da garantia da transparência sobre procedimentos de elaboração de termos e políticas de uso de uso e outras políticas próprias. Aditamos aos objetivos da proposta inicial a limitação do uso de dados de qualquer natureza, inclusive dados pessoais e o princípio da livre iniciativa, porquanto elemento limitador sobre o ímpeto da força regulatória incidente nos serviços prestados pelos provedores.

No art. 5º, optamos por excluir a definição de conta identificada, uma vez que o propósito do texto é concentrar esforços no enfrentamento da desinformação, mais do que propor qualquer regime de identificação ampla e geral dos usuários da internet no Brasil. Também excluímos a definição de conta inautêntica, que pode levar a restrições no uso constitucional de pseudônimos e na liberdade de expressão dos usuários.

Alteramos a definição de redes sociais, com a redação adotada em parte no PL nº 3227/2021, que entendemos mais precisa e em sintonia com a presente proposta. Optamos por retirar a parte final da definição, que faz referência à pessoa jurídica que exerça atividade com fins econômicos e de forma organizada, mediante a oferta de serviços ao público brasileiro, a fim de que a definição não entre em conflito com o disposto no art. 2º, que trata da abrangência da lei, e que faz menção aos provedores cujas atividades sejam realizadas por pessoa jurídica sediada no exterior.

Alteramos também a redação da definição de conta automatizada, para a de conta gerida, total ou preponderantemente, por programa de computador ou tecnologia para simular, substituir ou facilitar atividades humanas e que não sejam disponibilizadas pelo próprio provedor. A nova definição é mais clara e evita expressões ambíguas, que poderiam gerar dúvidas.

Definimos os serviços de mensageria instantânea como a aplicação de internet cuja principal finalidade seja o envio de mensagens instantâneas para destinatários certos e determinados, incluindo a oferta ou venda de produtos ou serviços e aquelas protegidas por criptografia de pontaa-ponta, com exceção dos serviços de correio eletrônico. Excetuamos os serviços de correio eletrônico.

Em seguida, definimos como ferramenta de busca a aplicação de internet que permite a busca por palavras-chave de conteúdos elaborados por terceiros e disponível na internet, agrupando, organizando e ordenando os resultados mediante critérios de relevância escolhidos pela plataforma, independentemente da criação de contas, perfis de usuários ou qualquer outro registro individual, incluído indexador de conteúdo. Excetuamos dessa definição aquelas ferramentas de busca que se destinem exclusivamente a
funcionalidades de comércio eletrônico.

Do mesmo modo, incluímos a definição de perfilamento, como sendo qualquer forma de tratamento de dados, automatizada ou não, para avaliar aspectos pessoais de uma pessoa natural, objetivando classificá-la em grupos ou perfis, ou para a formação do perfil comportamental ou definição de seu perfil pessoal a que se referem a LGPD.

No Capítulo II, Seção I, definimos as responsabilidades civis, que cabem aos provedores em cada situação. Nesse sentido, os provedores serão responsáveis civilmente, de forma solidária: (i) pela reparação dos danos causados por conteúdos gerados por terceiros cuja distribuição tenha sido realizada por meio de publicidade de plataforma; e (ii) por danos decorrentes de conteúdos gerados por terceiros quando houver descumprimento das obrigações de dever de cuidado, na duração do protocolo de segurança de que trata a Seção IV.

Na Seção II, dispusemos sobre as obrigações de análise e atenuação de riscos sistêmicos. Nesses casos, os provedores deverão identificar, analisar e avaliar diligentemente os riscos sistêmicos decorrentes da
concepção ou do funcionamento dos seus serviços e dos seus sistemas relacionados, incluindo os sistemas algorítmicos. Essa avaliação envolve a concepção e o funcionamento dos seus serviços e dos seus sistemas relacionados, incluindo os sistemas algorítmicos.

Os riscos a serem dirimidos são aqueles referentes à difusão de conteúdos ilícitos no âmbito dos serviços de acordo com o caput do art. 11 e os danos à dimensão coletiva de direitos fundamentais nos casos determinados na lei, tais como o direito à liberdade de expressão, de informação e de imprensa e ao pluralismo dos meios de comunicação social ou de temas cívicos, político-institucionais e eleitorais.

Ao realizarem a avaliação de risco, os provedores levarão em consideração fatores como a concepção dos seus sistemas de recomendação e de qualquer outro sistema algorítmico pertinente, os seus sistemas de moderação de conteúdos, os seus termos de uso e a sua aplicação e a influência da manipulação maliciosa e intencional no serviço, por exemplo.

Diante da presença desses fatores, os provedores adotarão medidas de atenuação razoáveis, proporcionais e eficazes, direcionadas aos riscos sistêmicos por meio da adaptação dos seus serviços, dos seus termos de uso, bem como os critérios e métodos de sua aplicação, entre outras obrigações.

Vale notar que, quando houver uso de ferramentas automatizadas, deverá haver supervisão e verificação humana para garantir a precisão, a proporcionalidade e a não discriminação. Para assegurar a fiscalização das ações dos provedores, estes deverão conceder em prazo razoável, na forma de regulamentação e mediante requerimento e sempre que solicitado, acesso aos dados que contribuam para a detecção, identificação e compreensão dos riscos sistêmicos.

Na sequência, na Seção III, esmiuçamos as obrigações do chamado dever de cuidado, em que os provedores devem atuar de forma diligente para prevenir ou mitigar práticas ilícitas no âmbito do seu serviço. Essa atuação comporta a concentração de esforços para aprimorar o combate a alguns conteúdos ilegais gerados por terceiros, dentre eles crimes, como os contra o Estado Democrático de Direito e de golpe de estado, os atos de terrorismo crime de induzimento, os de instigação ou auxílio a suicídio, crimes contra crianças e adolescentes previstos na Lei nº 8.069, de 13 de julho 1990, e de discriminação ou preconceito.

Sobre o dever de cuidado, serão avaliadas, entre outros materiais, as informações prestadas pelos provedores nos relatórios de avaliação de risco sistêmico e transparência, e o tratamento dado ao
recebimento de notificações e reclamações. Para evitar eventual sanção sobre falta do dever de cuidado conteúdos individuais ou um pequeno conjunto deles, determinamos que a avaliação seja realizada sempre sobre o conjunto de esforços e medidas adotadas pelos provedores.

Depois, tratamos, na Seção IV, acerca das obrigações em situações de risco iminente de danos, que correrá que ocorrem: (i) quando configurado risco iminente de danos à dimensão coletiva de direitos
fundamentais; nos casos previstos do dever de cuidados; ou (ii) no descumprimento das obrigações estabelecidas na seção da avaliação de risco sistêmico.

Em tais casos, poderá ser instaurado protocolo de segurança pelo prazo de até 30 dias, procedimento de natureza administrativa cujas etapas e objetivos deverão ser objeto de regulamentação própria. O objetivo é criar um mecanismo de fiscalização dos provedores.

Os provedores poderão, a partir da instauração do protocolo de segurança, ser responsabilizados civilmente pelos danos decorrentes de conteúdo gerado por terceiros quando demonstrado conhecimento prévio sobre tal conteúdo e não tenham sido adotadas as medidas previstas nesta proposta. Tal responsabilidade será solidária quando houver risco iminente de danos durante o período de duração do protocolo e será restrita aos temas e hipóteses nele estipulados.

Optamos por suprimir o teor do art. 7º do texto aprovado pelo Senado, pois entendemos que resulta na formação de cadastros desnecessários e no aumento da coleta de dados por parte das aplicações, em
violação ao princípio da necessidade, previsto pela Lei Geral de Proteção de Dados - LGPD. Ademais, os provedores não são, nem deveriam ser, especialistas em processar e identificar a veracidade de informações de identificação do usuário. Isso minimiza a possibilidade da formação de um cadastro organizado de identificação em massa, reduzindo o pode discricionário dos provedores de redes sociais e serviços de mensageria privada para obtenção de dados pessoais constante das identidades e o consequente ônus sobre a privacidade dos usuários.

Na sequência, deliberamos pela exclusão completa do art. 8º, também de origem do Senado Federal. Primeiro, porque a regra gera mais uma barreira de acesso à internet e à comunicação para um grupo economicamente vulnerável, aumentando a exclusão digital. Segundo, porque a comunicação entre as empresas de telefonia e os aplicativos de mensagens sobre os números que tiveram contratos cancelados pelas operadoras implica o desenvolvimento de detalhados procedimentos de interconexão de base de dados, com consequências nefastas para a privacidade, segurança, territorialidade das aplicações e de custos, que devem ser levados em consideração. Ademais, as obrigações tendem a não resolver o problema, visto que o uso de números do exterior, ou o uso temporário de números "alugados", pode facilmente contornar a medida.

No Capítulo IIII abordamos os procedimentos de moderação, refinando e incluindo diversos direitos e salvaguardas para os usuários dos provedores. Esse item foi objeto de bastante discussão nas audiências públicas e de vários dos apensos a esta proposta legislativa.

Estabelecemos balizas para aplicação das regras de moderação dos provedores que possam acarretar exclusão, indisponibilização, redução de alcance ou sinalização de conteúdos gerados por terceiros e de
suas contas, conforme previsão nos termos e políticas de uso. Nesses casos, os provedores devem notificar o usuário sobre qual a natureza da medida aplicada e o seu âmbito territorial, a sua fundamentação, apontando a cláusula aplicada ou a base legal para sua aplicação, quais os procedimentos e prazos para o direito de revisão da decisão, e se a decisão foi tomada exclusivamente por meio de sistemas automatizados.

Para facilitar o contato com o usuário, propusemos que as plataformas disponibilizem canal próprio, destacado e de fácil acesso, pelo prazo mínimo de seis meses, para consulta das informações prestadas, com o objetivo de facilitar a formulação de denúncias sobre conteúdos e contas e para envio de pedido de revisão de decisões. Caberá aos provedores dar resposta fundamentada e objetiva aos pedidos de revisão de decisões, bem como providenciar a sua reversão imediata logo que verificado algum erro.

Previmos hipóteses de publicização das ações de moderação de conteúdo, determinando que os provedores devem criar mecanismos para informar publicamente a ação de moderação e manter pública a identificação de ação judicial que deu origem à moderação em conteúdos e contas.

No Capítulo IV, que versa sobre a transparência em questões de impulsionamento e publicidade, em relação ao texto do Senado acrescentamos mais informações a serem prestadas pelos provedores.
Determinamos, por exemplo, que os provedores devem disponibilizar, de forma acessível, com informações claras, no idioma português, os termos de uso de seus serviços, que devem incluir, dentre outras informações, sumário conciso com as principais características dos serviços e os principais elementos contidos nos termos de uso, os tipos de conteúdos proibidos, a faixa etária à qual se destinam e os potenciais riscos de uso. Ademais, estabelecemos que os provedores são obrigados a divulgar em seus termos de uso quais são as medidas de governança adotadas no desenvolvimento e emprego dos sistemas automatizados, para maios proteção dos usuários.

Mantivemos também o mandamento da entrega semestral de relatórios de transparência, que devem ser disponibilizados nos sítios eletrônicos dos provedores, com fácil acesso, em português, de modo a
informar procedimentos de moderação de conteúdo, nos termos da regulamentação.

Ademais estabelecemos que os provedores devem, por padrão, demandar ação humana e consentimento dos usuários para ativação de reprodução automatizada de conteúdos, salvo conteúdos musicais e listas de reprodução criadas pelo próprio usuário e vedamos aos provedores estimular a mudança desse padrão. Além disso, determinamos que os provedores devem adotar medidas técnicas que viabilizem a identificação de forma clara, inequívoca e em tempo real os conteúdos recomendados, de forma a diferenciá-los do conteúdo selecionado pelo usuário.

Na Seção IV deste capítulo adotamos a sugestão de que os provedores devem realizar e publicar anualmente uma auditoria externa e independente para avaliação do cumprimento do disposto na presente proposta, nos códigos de conduta e da regulamentação, abordando um rol mínimo de questões, como a eficiência no cumprimento das obrigações de análise e atenuação de riscos sistêmicos, o nível de eficiência, acurácia, precisão e cobertura das medidas de atenuação adotadas, e as ações de nãodiscriminação ou inexistência de vieses em suas decisões de moderação.

Por fim, na Seção V do Capítulo IV, determinamos a possibilidade de abertura das informações dos provedores para pesquisadores que terão acesso gratuito a dados desagregados, inclusive por meio de interface de programação de aplicações, com objetivo acadêmico, desde que, claro, observados os segredos comercial e industrial.

No Capítulo V abordamos a questão da publicidade digital, aproximando o tratamento dessa publicidade com as de outros meios de comunicação. Determinamos, por exemplo que o provedor, bem como as plataformas de publicidade programática devem requerer a identidade de todos os anunciantes de publicidade de plataforma, seja da pessoa física ou jurídica em cujo nome a publicidade é apresentada, seja da pessoa que paga a publicidade.

O desiderato do capítulo foi a maior transparência. Nesse sentido, obrigamos o provedor a disponibilizar mecanismos para fornecer aos usuários informações do histórico dos conteúdos publicitários com
os quais a conta teve contato nos últimos 6 meses. Além disso, exigimos maior transparência para os critérios e procedimentos utilizados para perfilamento dos usuários.

Em seguida, no Capítulo VI, tratamos dos direitos de autor e conexos. Caso se faça uso desses conteúdos em provedores, incluindo-se aqueles ofertantes de conteúdo sob demanda e produzidos em quaisquer
formatos que incluam texto, vídeo, áudio ou imagem, deverá haver remuneração a seus titulares pelos provedores.

Na sequência, no Capítulo VII, fizemos o mesmo para os conteúdos jornalísticos utilizados pelos provedores, que, não importa o formato, ensejarão remuneração às empresas jornalísticas. Tal contrapartida se dará na forma de regulamentação, que detalhará os critérios, forma para aferição dos valores, negociação, resolução de conflitos, transparência e a valorização do jornalismo profissional nacional, regional, local e independente.

No Capítulo VIII, que trata da atuação do Poder Público, acrescentamos novo dispositivo para dar maior proteção às contas de interesse público, a fim de evitar ações de intervenção que impactem a circulação, disponibilização, promoção, redução do alcance ou remoção de conteúdos de contas dessas contas. Nesse caso, previmos a possibilidade expressa de ajuizamento de ação para a sua restauração, de forma célere, devendo o Poder Judiciário obrigar os provedores a restabelecer essas contas quando
ficar comprovada a sua operação em conformidade com direitos fundamentais e com os princípios da legalidade, impessoalidade, moralidade, publicidade e eficiência.

Caso o usuário de conta institucional possua mais de uma conta em um provedor, ele deverá indicar aquela que representa oficialmente seu mandato ou cargo ao respectivo órgão corregedor, sendo as demais eximidas das obrigações deste artigo. Nesses casos, o órgão corregedor repassará a lista de contas indicadas como institucionais aos provedores de redes sociais em prazo determinado. Além disso, a conta considerada não institucional passará a ser considerada como tal caso contenha, predominantemente, manifestações oficiais próprias do cargo destes agentes ou servidores.

Estabelecemos também a garantia da extensão da imunidade parlamentar material às plataformas mantidas pelos provedores de aplicação de redes sociais.

Quanto à destinação de recursos públicos para publicidade em sítios eletrônicos e contas em redes sociais, vedamos que isso ocorra quando houver promoção de discursos violentos destinados ao cometimento de crimes contra o Estado democrático de direito.

Além disso, vedamos a contratação de publicidade pela Administração Pública junto a provedores que não sejam constituídos de acordo com a legislação brasileira e com representação no país. Isso evitará o
afluxo de recursos públicos para empresas que não estejam submetidas ao sistema jurídico pátrio.

Para fins de transparência, incluímos dispositivo que obriga a Administração Pública a disponibilizar e especificar as informações sobre recursos investidos em publicidade destinados a meios de comunicação, incluídos os provedores de aplicação de internet, sítios eletrônicos e contas em
redes sociais. Por fim, estabelecemos que constitui ato ilícito, punível penal e administrativamente, qualquer punição disciplinar ou ato praticado por superior hierárquico que cause prejuízo a servidor público em função de conteúdo por ele compartilhado em caráter privado, fora do exercício de suas funções e que não constitua material cuja publicação tenha vedação expressa prevista em lei.
Ademais, estabelecemos que a comercialização de publicidade para inserção por provedores domiciliados no exterior deverá ser realizada e reconhecida por sua representante no Brasil e conforme a legislação de regência da publicidade no país, quando destinada ao mercado brasileiro. Determinamos, também, que os provedores devem disponibilizar aos usuários, por meio de fácil acesso, a visualização de todos os conteúdos de propaganda eleitoral impulsionada.

Por fim, ampliamos as obrigações em relação ao histórico dos conteúdos impulsionados e publicitários com os quais o usuário teve contato nos últimos 6 meses, para incluir informações a respeito dos critérios e procedimentos utilizados para perfilamento que foram aplicados em cada caso.

No Capítulo IX tratamos do fomento à educação, impondo deveres ao Estado para a prestação de serviços educacionais que incluem a capacitação, integrada a outras práticas educacionais, para o uso seguro, consciente e responsável das aplicações de internet. Isso inclui campanhas para evitar a desinformação discursos violentos baseados em discriminações de sexo, raça, etnia e religião e para a promoção da transparência sobre conteúdos patrocinados.

Importante tema por nós acrescido foi o relativo às crianças e adolescentes, no Capítulo X. O objetivo foi fazer com que provedores, em seus serviços acessíveis por crianças, tenham sempre como parâmetro o melhor para elas, adotando medidas adequadas e proporcionais a fim de assegurar um nível elevado de privacidade, proteção de dados e segurança.

No Capítulo XI, abordamos os provedores de serviços de mensageria instantânea. Nele, determinamos a limitação de encaminhamentos de mensagens ou mídias recebidas de outro usuário para múltiplos
destinatários e estabelecemos que listas de transmissão só poderão ser encaminhadas e recebidas, em qualquer hipótese, por pessoas que estejam identificadas, ao mesmo tempo, em ambas as listas de contatos de remetentes e destinatários. O objetivo foi reduzir, de alguma forma, a circulação de notícias potencialmente nocivas e falsas, reduzindo o alcance e o movimento desses conteúdos pelas plataformas de mensageria.

Em novo dispositivo dispensamos a adoção da solução proposta pelo artigo 10 do PL nº 2630/2020 do Senado, que permite o rastreamento e que, segundo muitas das vozes ouvidas nas audiências
públicas realizadas, tem o potencial de criar um cenário de vigilância em massa, com a guarda de volumes massivos de metadados. Haveria o risco de surgirem casos de monitoramento preventivo de comunicações utilizando essas informações, o que poderia servir para intimidar indivíduos, violar a presunção de inocência e o sigilo das comunicações, quebrando a expectativa de privacidade.

Para fins de combate a ilícitos online, previmos que ordem judicial poderá determinar aos serviços de mensageria instantânea que preservem e disponibilizem informações suficientes para identificar a primeira conta denunciada por outros usuários quando em causa o envio de conteúdos ilícitos.

Criamos, outrossim, obrigação para que provedores de mensageria instantânea destinados ao uso comercial desenvolvam medidas a fim de que o serviço seja usado estritamente para finalidades institucionais ou comerciais, ou seja, na divulgação de seus produtos e serviços. O objetivo é evitar a facilitação do disparo automatizado e em larga escala para múltiplos usuários. Nesses casos, a informação deve identificar o remetente da mensagem e há vedação de que tal serviço seja utilizado para fins de propaganda eleitoral e partidária, ou para distribuir qualquer conteúdo que não esteja relacionado a finalidades institucionais e comerciais. Ao provedor, na hipótese de identificar encaminhamento de mensagens que não se enquadrem no escopo do serviço comercial, caberá bloquear a conta infratora.

Todas essas inovações visam conferir maior segurança jurídica para os usuários das redes, reduzir o potencial impacto de notícias falsas e possibilitar a identificação do autor da desinformação.

No Capítulo XII, balizamos a atuação do Poder Judiciário, prevendo que decisões judiciais que determinarem a remoção imediata de conteúdo ilícito relacionado à prática de crimes previstos na lei deverão ser cumpridas pelos provedores no prazo de até 24 horas, sob pena de multa.

Ademais, quando o provedor tomar conhecimento de informações que levantem suspeitas sobre um crime que envolva ameaça à vida, ele, o provedor, deverá informar imediatamente sua suspeita às autoridades
competentes.

No capítulo de sanções, de número XIII, estabelecemos as sanções de (i) advertência, (ii) multa diária, (iii) multa simples, de até 10% do faturamento do grupo econômico no Brasil no seu último exercício, limitada, no total, a R$ 50.000.000,00, (iv) publicação da decisão pelo infrator; (v) proibição de tratamento de determinadas bases de dados, e (vi) suspensão temporária das atividades.

Ressaltamos que, embora a imposição de sanções de suspensão tenha sido bastante polêmica, destacando-se o famoso caso do bloqueio do Whastapp, que gerou grande clamor popular, a medida é
necessária para a aplicação devida da lei. Quanto ao valor das multas, as limitamos ao valor absoluto de R$ 50 milhões de reais, por infração, e optamos por direcioná-la ao Fundo de Defesa de Direitos Difusos.

No Capítulo XIV, após sugestões de dezenas de projetos de lei apensados, criamos o crime de promover ou financiar, pessoalmente ou por meio de terceiros, ação coordenada, mediante uso de contas automatizadas e outros meios ou expedientes não fornecidos diretamente pelo provedor de aplicações de internet, disseminação em massa de mensagens que contenham fato que sabe inverídico e que seja capaz de comprometer a higidez do processo eleitoral ou que possa causar dano à integridade física e seja passível de sanção criminal.

A nosso ver, a criminalização de ações coordenadas com o uso de robôs, contas automatizadas ou outros meios não disponibilizados pelo provedor demonstra a má-fé e o grande risco da desinformação, merecendo a oposição de um tipo penal no caso de conteúdo passível de sanção criminal ou de fatos comprovadamente inverídicos e passíveis de sanção criminal que causem dano à integridade física das pessoas ou sejam capazes de comprometer a higidez do processo eleitoral.

No Capítulo XV, atribuíamos algumas competências para o Comitê Gestor da Internet no Brasil – CGI.br. Dentre tais competências relacionadas destacam-se as de apresentar diretrizes para a elaboração de código de conduta e a de validá-los, após sua elaboração pelos provedores.

Alteramos o texto do Senado Federal, que dispõe que os provedores deverão ter sede e nomear representantes legais no Brasil. Determinamos, de outra banda, que os provedores deverão ser representados por pessoa jurídica no Brasil, e que tal informação deve ser facilmente acessível nos sítios eletrônicos das empresas. Além disso, competirá aos provedores e seus representantes, entregar às autoridades administrativas que detenham competência legal para sua requisição, nos termos da legislação, informações cadastrais referentes aos usuários brasileiros. É importante que as empresas, mesmo que sejam empresas de tecnologia, respeitem as leis brasileiras e seja possível localizá-las e sancioná-las, caso necessário. No entanto, vimos como excessiva e onerosa a obrigação de ter sede no país, o que pode acabar por afastar investimentos e o desenvolvimento eficiente do mercado.

Somado a isso, determinamos que a referida representação do provedor deve gozar de plenos poderes para responder perante as esferas administrativa e judicial, fornecer às autoridades competentes as informações relativas ao funcionamento, termos de uso e políticos aplicáveis à expressão de terceiros e à comercialização de produtos e serviços do provedor, para cumprir as determinações judiciais, e para responder a eventuais penalizações, multas e afetações financeiras que a empresa possa incorrer, especialmente por descumprimento de obrigações legais e judiciais.

Relevante notar que, em relação ao texto do Senado, excluímos a alteração na Lei nº 10.703, de 18 de julho de 2003, proposta no Senado Federal, uma vez que entendemos que a exigência de comparecimento presencial para cadastro na obtenção de linhas telefônicas tem o condão de criar obstáculos ao acesso à comunicação, aumentando a exclusão digital.

Em relação à alteração promovida no Marco Civil da Internet, optamos por excluir as definições de registros de acesso a aplicações de internet, de nateamento de IP e de portas lógicas, por serem imprecisas e ao mesmo tempo dispensáveis para o propósito do dispositivo.

Não obstante, optamos, nesse dispositivo, por inserir nos conceitos de registros de conexão e de aplicações a chamada "porta lógica" e inserir os dados cadastrais nas obrigações de guarda dos provedores. Tudo com o objetivo de facilitar a investigações policiais e administrativas. Quanto ao Marco Civil da Internet, acrescentamos, também, que as responsabilizações civis previstas na presente lei constituem exceções ao disposto no artigo 19 daquele diploma.

Ademais, em razão da dinamicidade tecnológica, estabelecemos um prazo de 5 anos a contar da data de publicação desta Lei, para a sua revisão, a ser elaborada com base nas informações geradas pelos
relatórios semestrais de transparência, levando em conta os procedimentos e decisões relativas à moderação de contas e conteúdos.

Por fim, estabelecemos uma vacatio legis de: (i) 12 meses, a partir da data de sua publicação, quanto aos arts. 7o ao 10 e 23 ao 25; (ii) 90 (noventa) dias, a partir da data de sua publicação, quanto aos arts. 12 ao 15, 20 ao 22, 26 ao 30, 32, 38, 39, 40 e 45 ao 47; e (iii) na data de sua publicação, para os demais dispositivos.

De uma forma geral, acolhemos, direta ou indiretamente, propostas dos apensos que trataram da proibição ou restrição de contas automatizadas, da imposição de regras para a remoção ou restrição de
postagem ou acesso aos conteúdos, que dispuseram sobre requisitos de transparências para os provedores e que propuseram tipo penal para casos de operações organizadas para disseminação de informação falsa.

Por outro lado, rejeitamos propostas legislativas dos apensos que traziam a obrigação da adoção de checadores de fatos, que criavam um órgão regulador ou que dispunham sobre tipos penais cujo núcleo era principalmente criar ou encaminhar individualmente conteúdos considerados falsos.

II.1. Adequação orçamentário-financeira

O Regimento Interno da Câmara dos Deputados (RI, arts. 32, X, "h", e 53, II) e a Norma Interna da Comissão de Finanças e Tributação (NI/CFT) definem que o exame de compatibilidade ou adequação far-se-á por meio da análise da conformidade da proposição com o plano plurianual, a lei de diretrizes orçamentárias e o orçamento anual. Além disso, a NI/CFT prescreve que também nortearão a análise outras normas pertinentes à receita e despesa públicas. São consideradas como outras normas, especialmente, a Constituição Federal e a Lei de Responsabilidade Fiscal-LRF (Lei Complementar nº 101, de 4 de maio de 2000).

O art. 1º, §1º, da NI/CFT define como compatível "a proposição que não conflite com as normas do plano plurianual, da lei de diretrizes orçamentárias, da lei orçamentária anual e das demais disposições legais em vigor" e como adequada "a proposição que se adapte, se ajuste ou esteja abrangida pelo plano plurianual, pela lei de diretrizes orçamentárias e pela lei orçamentária anual".

Em adição, o art. 1º, § 2º, da NI/CFT prescreve que se sujeitam obrigatoriamente ao exame de compatibilidade ou adequação orçamentária e financeira as proposições que impliquem aumento ou diminuição da receita ou despesa da União ou repercutam de qualquer modo sobre os respectivos Orçamentos, sua forma ou seu conteúdo. No entanto, quando a matéria não tiver implicações orçamentária e financeira, o art. 9º da NI/CFT determina que se deve concluir no voto final que à Comissão não cabe afirmar se a proposição é adequada ou não.

Dito isso, relativamente à compatibilidade e adequação financeira e orçamentária do projeto, não verificamos conflitos.

II.2. Pressupostos de constitucionalidade

Observamos que inexiste qualquer objeção quanto aos pressupostos de constitucionalidade do Projeto de Lei nº 2.630, de 2020, bem como do substitutivo ora proposto.

A maioria das proposições e o substitutivo atendem aos preceitos constitucionais formais concernentes à competência legislativa da União, às atribuições do Congresso Nacional e à legitimação de iniciativa parlamentar.

No que respeita à constitucionalidade material, também há harmonia entre as alterações propostas com as disposições da Lei Maior.

Com relação à juridicidade, os projetos e o substitutivo da Comissão de Desenvolvimento Econômico, Indústria, Comércio e Serviços revelam-se adequados. O meio escolhido é apropriado para atingir o objetivo pretendido. O respectivo conteúdo possui generalidade e se mostra harmônico com os princípios gerais do Direito.

No tocante à técnica legislativa, as proposições se amoldam aos preceitos da Lei Complementar nº 95, de 1998, que dispõe sobre a elaboração, alteração e consolidação das leis.

II.3. Mérito

Por fim, quanto ao mérito, entendemos que o Projeto de Lei nº 2.630/2020, na forma do Substitutivo que ora apresentamos, deve ser aprovado. Trata-se de uma proposta meritória, que em muito irá contribuir para a transparência e responsabilidade dos provedores de redes sociais, das ferramentas de busca e dos serviços de mensageria instantânea, quanto dos usuários da internet. Ademais, a proposta que aqui analisamos é essencial para delimitar, de maneira precisa e efetiva, regras e princípios fundamentais para regular as plataformas e estabelecer soluções para o tratamento das notícias falsas e da desinformação no âmbito da rede mundial de computadores no Brasil, resguardando os direitos fundamentais constitucionais e contribuindo para que a interação social no ambiente virtual seja mais civilizada e serena.

II.4 - Conclusão do voto

Ante o exposto, votamos:

(i) pela não implicação da matéria em aumento ou diminuição da receita ou da despesa pública, não cabendo pronunciamento quanto à adequação orçamentária e financeira do Projeto de Lei nº 2.630/2020, e dos Projetos de Lei em apenso nºs 3063/2020, 3627/2020, 3389/2019, 4925/2019, 5260/2019, 437/2020, 2284/2020, 6351/2019, 3044/2020, 1591/2021, 2763/2020, 3063/2020, 283/2020, 2854/2020, 2883/2020, 649/2021, 3119/2020, 2393/2021, 3385/2020, 291/2021, 449/2021, 3573/2021, 213/2021, 495/2021, 2401/2021, 127/2021, 246/2021, 1362/2021, 865/2021, 2390/2021, 10860/2018, 5776/2019, 475/2020, 4418/2020, 4925/2019, 5260/2019, 437/2020, 2284/2020, 6531/2019, 7604/2017, 9647/2018, 2601/2019, 2602/2019, 808/2020; 1941/2020, 2196/2020, 1897/2021, 3063/2020, 3144/2020, 283/2020, 3029/2020, 2883/2020, 649/2021, 3119/2020, 2393/2021, 449/2021, 127/2021, 1362/2021, 2390/2021, 1743/2021, 1590/2021, 9553/2018, PL 1676/2015, PL 1394/2020, PL 988/2020, PL 1923/2021, PL 1258/2020, PL 2389/2020, PL 2790/2020, PL 1001/2021, PL 1974/2019, PL 8592/2017, PL 9931/2018, PL 200/2019, PL 241/2019, PL 705/2020, PL 3222/2020, 9838/2018, 9884/2018, 3307/2020, 9554/2018,
346/2019, 2712/2015, 693/2020, 2831/2021, 3700/2021, 2989/2021, 4134/2021, 1897/2021, 3857/2019, 2844/2020, 356/2021, 388/2021, 5959/2019, 1772/2021, 2060/2021, 3366/2021 e 143/2022; PL 714/2022; PL 836/2022; PL 2516/2022; PL 125/2023; PL 1087/2023; PL 1116/2023, na forma
do Substitutivo em anexo;

(ii) pela constitucionalidade, juridicidade e boa técnica legislativa do Projeto de Lei nº 2.630/2020, e dos Projetos de Lei em apenso nºs 3063/2020, 3627/2020, 3389/2019, 4925/2019, 5260/2019, 437/2020, 2284/2020, 6351/2019, 3044/2020, 1591/2021, 2763/2020, 3063/2020, 283/2020, 2854/2020, 2883/2020, 649/2021, 3119/2020, 2393/2021, 3385/2020, 291/2021, 449/2021, 3573/2021, 213/2021, 495/2021, 2401/2021, 127/2021, 246/2021, 1362/2021, 865/2021, 2390/2021, 10860/2018, 5776/2019, 475/2020, 4418/2020, 4925/2019, 5260/2019, 437/2020, 2284/2020, 6531/2019, 7604/2017, 9647/2018, 2601/2019, 2602/2019, 1941/2020, 2196/2020, 1897/2021, 3063/2020, 3144/2020, 283/2020, 3029/2020, 2883/2020, 649/2021, 3119/2020, 2393/2021, 449/2021, 127/2021, 1362/2021, 2390/2021, 1743/2021, 1590/2021, 9553/2018, 9838/2018, 9884/2018, 3307/2020, 9554/2018, 346/2019, 2712/2015, 693/2020, 2831/2021, 3700/2021, 2989/2021, 4134/2021, 1897/2021, 3857/2019, 2844/2020, 356/2021, 388/2021, 5959/2019, 1772/2021, 2060/2021, 3366/2021, 143/2022, PL 714/2022, PL 836/2022, PL 2516/2022, PL PL 125/2023, 1087/2023 e PL 1116/2023, na forma do Substitutivo em anexo; e

(iii) no mérito, pela APROVAÇÃO do Projeto de Lei nº 2.630/2020, e dos Projeto de Lei em apenso nºs 3063/2020, 3627/2020, 3389/2019, 4925/2019, 5260/2019, 437/2020, 2284/2020, 6351/2019, 3044/2020, 1591/2021, 2763/2020, 3063/2020, 283/2020, 2854/2020, 2883/2020, 649/2021, 3119/2020, 2393/2021, 3385/2020, 291/2021, 449/2021, 3573/2021, 213/2021, 495/2021, 2401/2021, 246/2021, 2390/2021, 10860/2018, 5776/2019, 475/2020, 4418/2020, 4925/2019, 5260/2019, 437/2020, 2284/2020, 6531/2019, 7604/2017, 9647/2018, 2601/2019, 2602/2019, 1897/2021, 3063/2020, 283/2020, 3029/2020, 649/2021, 3119/2020, 2393/2021, 449/2021, 2390/2021, 1743/2021, 1590/2021, 9553/2018, PL 1589/2021, PL 3395/2020, PL 6812/2017, PL 9533/2018, PL 9761/2018, 9838/2018, 9884/2018, 3307/2020, 9554/2018, 346/2019, 2712/2015, 693/2020, 2831/2021, 3700/2021, 2989/2021, 4134/2021, 1897/2021, 3857/2019, 3366/2021, 143/2022, PL 714/2022, PL 836/2022, PL 2516/2022, PL 125/2023, PL 1087/2023 e PL 1116/2023, na forma do Substitutivo em anexo, e pela REJEIÇÃO dos Projetos de Lei nºs 3144/2020, 127/2021, 1362/2021, 865/2021, 2844/2020, 1974/2019, 3222/2020, 356/2021, PL 517/2020, 388/2021, 5959/2019, 1772/2021, 2060/2021, 8592/2017, 9671/2018, 9931/2018, 200/2019, 241/2019, 705/2020, 1394/2020, 988/2020, 1923/2021, 1676/2015, 1258/2020, 1941/2020, 2389/2020, 2790/2020, 1001/2021 e 2196/2020.

Sala das Sessões, em 27 de abril de 2023

Deputado ORLANDO SILVA
Relator

SUBSTITUTIVO AO PL Nº 2.630, de 2020
(APENSOS PROJETOS DE LEI NOS PL 3063/2020, PL 3144/2020, PL 3627/2020, PL 1676/2015, PL 2712/2015, PL 346/2019, PL 283/2020, PL 2854/2020, PL 3029/2020 , PL 2883/2020, PL 649/2021, PL 3119/2020, PL 1589/2021, PL 2393/2021, PL 2831/2021, PL 3395/2020, PL 291/2021, PL 449/2021, PL 3700/2021, PL 3573/2020, PL 213/2021, PL 495/2021, PL 2401/2021, PL 127/2021, PL 246/2021, PL 1362/2021, PL 865/2021, PL 2390/2021, PL 10860/2018, PL 5776/2019, PL 475/2020, PL 4418/2020, PL 1743/2021, PL 3389/2019, PL 4925/2019, PL 5260/2019, PL 437/2020, PL 2284/2020, PL 6351/2019, PL 517/2020, PL 3044/2020, PL 1590/2021, PL 2989/2021, PL 2763/2020, PL 6812/2017, PL 7604/2017, PL 9647/2018, PL 2601/2019, PL 2602/2019, PL 8592/2017, PL 9554/2018, PL 9554/2018, PL 9533/2018, PL 9761/2018, PL 9838/2018, PL 9884/2018, PL 9931/2018, PL 4134/2021, PL 200/2019, PL 241/2019, PL 3307/2020, PL 693/2020 (9), PL 705/2020, PL 1394/2020, PL 988/2020, PL 1923/2021, PL 1258/2020, PL 1941/2020, PL 2389/2020, PL 2790/2020, PL 1001/2021, PL 2196/2020, PL 1897/2021, PL 3857/2019, PL 1974/2019, PL 2844/2020, PL 3222/2020, PL 356/2021, PL 388/2021, PL 5959/2019, PL 1772/2021, PL 2060/2021, PL 3366/2021, PL 143/2022, PL 714/2022, PL 836/2022, PL 2516/2022, PL 125/2023, PL 1087/2023, PL 1116/2023

Institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet.

Autor: SENADO FEDERAL;
Senador ALESSANDRO VIEIRA
Relator: Deputado ORLANDO SILVA

O Congresso Nacional decreta:

CAPÍTULO I
DISPOSIÇÕES PRELIMINARES

Art. 1º É instituída a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, destinada a estabelecer normas e mecanismos de transparência para provedores de redes sociais, ferramentas de busca, de mensageria instantânea, assim como diretrizes para seu uso.

Parágrafo único. As vedações e condicionantes previstos nesta Lei não implicarão restrição ao livre desenvolvimento da personalidade individual, à livre expressão e à manifestação artística, intelectual, de conteúdo satírico, religioso, político, ficcional, literário ou qualquer outra forma de manifestação cultural, nos termos dos arts. 5º e 220 da Constituição Federal.

Art. 2o Esta Lei se aplica aos seguintes provedores que, quando constituídos na forma de pessoa jurídica, ofertem serviços ao público brasileiro e exerçam atividade de forma organizada, e cujo número médio de
usuários mensais no país seja superior a 10.000.000 (dez milhões):

I - redes sociais;

II - ferramentas de busca;

III - mensageria instantânea; e

IV - quanto ao disposto no art. 31, também os provedores de aplicações
ofertantes de conteúdo sob demanda.

§ 1º Esta Lei não se aplica a provedores cuja atividade primordial seja:

I - de comércio eletrônico;

II - para a realização de reuniões fechadas por vídeo ou voz;

III - enciclopédias online sem fins lucrativos;

IV - repositórios científicos e educativos;

V - plataformas de desenvolvimento e compartilhamento de software de código aberto;

VI - busca e disponibilização de dados obtidos do poder público, em especial dos integrantes do Poder Público previstos no art. 1º da Lei nº 12.527, de 18 de novembro de 2011; e

VII – plataformas de jogos e apostas online.

§ 2º Para os fins desta lei, todas as pessoas jurídicas referidas no caput serão consideradas meios de comunicação social para efeitos do disposto no art. 22 da Lei Complementar nº 64, de 18 de maio de 1990.

Art. 3º A aplicação desta Lei deverá observar os seguintes princípios:

I – a defesa do Estado Democrático de Direito;

II – o fortalecimento do processo democrático, pluralismo político, liberdade de consciência e a liberdade de associação para fins lícitos;

III – o livre exercício da expressão e dos cultos religiosos, seja de forma presencial ou remota, e a exposição plena dos seus dogmas e livros sagrados;

IV – a liberdade de expressão, a liberdade de imprensa, o acesso à informação, o fomento à diversidade de informações no Brasil e a vedação à censura no ambiente online;

V – o livre desenvolvimento da personalidade, da dignidade, da honra e da imagem;

VI - a proteção de dados pessoais e da privacidade;

VII - a garantia da confiabilidade e da integridade dos sistemas informacionais;

VIII – a transparência e responsabilidade dos provedores na aplicação do disposto nesta Lei e dos seus termos de uso;

IX - a vedação à discriminação ilícita ou abusiva pelos provedores aos usuários;

X – a proteção dos consumidores;

XI – a proteção da saúde pública;

XII – a livre iniciativa; e

XIII – os previstos nos seguintes diplomas normativos:

a) Lei nº 4.680, de 18 de junho de 1965 – Marco Legal da Atividade Publicitária;

b) Lei n° 8.078, de 11 de setembro de 1990 - Código de Defesa do Consumidor;

c) Lei nº 12.965, de 23 de abril de 2014 - Marco Civil da Internet;

d) Lei nº 13.709, de 14 de agosto de 2018 - Lei Geral de Proteção de Dados Pessoais;

e) Lei nº 12.529, de 30 de novembro de 2011, que estrutura o Sistema Brasileiro de Defesa da Concorrência;

f) Lei nº 14.197, de 1º de setembro de 2021, que tipifica crimes contra o Estado Democrático de Direito; e

g) Lei nº 10.741, de 1º de outubro de 2003, que dispõe sobre o Estatuto da Pessoa Idosa.

§ 1º A liberdade de expressão é direito fundamental dos usuários dos provedores de que trata esta Lei, nos termos do art. 5º, inciso IX, da Constituição Federal.

Art. 4º Essa Lei tem como objetivos:

I – o fortalecimento do processo democrático e o fomento à diversidade de informações no Brasil;

II – a garantia da transparência dos provedores em relação a suas atividades com o usuário, incluindo a elaboração e modificação de seus termos de uso, critérios de moderação e recomendação de conteúdos e identificação de conteúdos publicitários;

III – o exercício do direito do usuário à notificação, ao contraditório, ampla defesa e devido processo em relação à moderação de conteúdos;

IV – o fomento à educação para o uso seguro, consciente e responsável da internet como instrumento para o exercício da cidadania;

V – proteção integral e prioritária dos direitos fundamentais das crianças e adolescentes; e

VI – o incentivo a um ambiente livre de assédio e discriminações.

Art. 5º Para os efeitos desta Lei, considera-se:

I – anunciante: usuário que paga por conteúdo publicitário;

II – conta automatizada: conta gerida, total ou preponderantemente, por programa de computador ou tecnologia para simular, substituir ou facilitar atividades humanas;

III – conteúdo: informações, processadas ou não, que podem ser utilizadas para produção e transmissão de conhecimento em sentido amplo, contidos em qualquer meio, suporte ou formato, compartilhados em uma aplicação de internet, independentemente da forma de distribuição;

IV – ferramenta de busca: aplicação de internet que permite a busca por palavras-chave de conteúdos elaborados por terceiros e disponíveis na internet, agrupando, organizando e ordenando os resultados mediante critérios de relevância escolhidos pela plataforma, independentemente da criação de
contas, perfis de usuários ou qualquer outro registro individual, incluído indexador de conteúdo e excetuadas aquelas que se destinem exclusivamente a funcionalidades de comércio eletrônico;

V – moderação de conteúdo: elaboração e aplicação de regras sobre contas e conteúdos gerados por terceiros que impliquem a exclusão, indisponibilização, redução ou promoção de alcance, sinalização de conteúdos, desindexação e outras com efeito análogo, bem como as medidas empregadas para o
cumprimento desta Lei, nos termos da regulamentação;

VI – perfilamento: qualquer forma de tratamento de dados, automatizada ou não, para avaliar aspectos pessoais de uma pessoa natural, objetivando classificá-la em grupos ou perfis, ou para a formação do perfil comportamental ou definição de seu perfil pessoal a que se refere a Lei nº 13.709, de 14 de
agosto de 2018;

VII – plataformas de publicidade programática: aplicação de internet que faça intermediação entre anunciantes e empresas que oferecem espaço para publicidade na internet, de forma automatizada, por meio de software algorítmico;

VIII – provedor: aplicação de internet de redes sociais, ferramentas de busca ou mensageria instantânea, nos termos previstos no art. 2o desta Lei;

XI – publicidade de plataforma: ampliação ou impulsionamento de alcance de conteúdo em troca de pagamento pecuniário ou valor estimável em dinheiro para os provedores de que trata esta Lei;

X – publicidade de usuário: veiculação de conteúdo em troca de pagamento pecuniário ou valor estimável em dinheiro para usuário que utiliza os provedores de que trata esta Lei;

XI – rede social: aplicação de internet cuja principal finalidade seja o compartilhamento e a disseminação, pelos usuários, de criação, opiniões e informações, veiculados por textos ou arquivos de imagens, sonoros ou audiovisuais, em uma única plataforma, por meio de contas conectadas ou acessíveis de forma articulada, permitida a conexão entre usuários;

XII – mensageria instantânea: aplicação de internet cuja principal finalidade seja o envio de mensagens instantâneas para destinatários certos e determinados, incluindo a oferta ou venda de produtos ou serviços e aquelas protegidas por criptografia de ponta-a-ponta, com exceção dos serviços de
correio eletrônico;

XIII – termos de uso: contrato estabelecido pelos provedores e o usuário de seus serviços, que estabelece regras próprias de moderação de conteúdos aplicáveis às suas contas e a conteúdos por ele gerados; e

XIV – usuário: pessoa física ou jurídica que possua conta ou utiliza provedor.

CAPÍTULO II

DA RESPONSABILIZAÇÃO DOS PROVEDORES

Seção I – Da responsabilização civil

Art. 6º Os provedores podem ser responsabilizados civilmente, de forma solidária:

I – pela reparação dos danos causados por conteúdos gerados por terceiros cuja distribuição tenha sido realizada por meio de publicidade de plataforma; e

II – por danos decorrentes de conteúdos gerados por terceiros quando houver descumprimento das obrigações de dever de cuidado, na duração do protocolo de segurança de que trata a Seção IV.

Seção II - Das obrigações de análise e atenuação de riscos sistêmicos

Art. 7º Os provedores devem identificar, analisar e avaliar diligentemente os riscos sistêmicos decorrentes da concepção ou do funcionamento dos seus serviços e dos seus sistemas relacionados, incluindo os sistemas algorítmicos.

§ 1º A avaliação de risco prevista no caput considerará diretrizes fixadas pela regulamentação e será publicada:

I - anualmente; e

II - antes da introdução de funcionalidades suscetíveis de terem um impacto crítico nos riscos identificados nos termos do presente artigo.

§ 2º A avaliação abrangerá especificamente em cada um dos serviços dos provedores e considerará os riscos sistêmicos, tendo em conta a sua gravidade e probabilidade de ocorrência, e incluirá, no mínimo, a análise dos seguintes riscos:

I – a difusão de conteúdos ilícitos no âmbito dos serviços de acordo com o caput do art. 11;

II – à garantia e promoção do direito à liberdade de expressão, de informação e de imprensa e ao pluralismo dos meios de comunicação social;

III – relativos à violência contra a mulher, ao racismo, à proteção da saúde pública, a crianças e adolescentes, idosos, e aqueles com consequências negativas graves para o bem-estar físico e mental da pessoa;

IV – ao Estado democrático de direito e à higidez do processo eleitoral; e

V - os efeitos de discriminação ilegal ou abusiva em decorrência do uso de dados pessoais sensíveis ou de impactos desproporcionais em razão de características pessoais.

§ 3º Quando da realização de avaliações de risco, os provedores terão em conta como os seguintes fatores influenciam os riscos sistêmicos referidos no § 2º:

I - a concepção dos seus sistemas de recomendação e de qualquer outro sistema algorítmico pertinente;

II - os seus sistemas de moderação de conteúdos;

III - os termos de uso e a sua aplicação;

IV - os sistemas de exibição de publicidade de plataforma; e

V - a influência da manipulação maliciosa e intencional no serviço, incluindo casos de contas criadas ou usadas com o propósito de assumir ou simular identidade de terceiros para enganar o público, ou explorar o serviço de maneira automatizada.

Art. 8º Os provedores adotarão medidas de atenuação razoáveis, proporcionais e eficazes, direcionadas aos riscos sistêmicos de que trata o art. 7o:

I - adaptar a concepção, características ou funcionamento dos serviços, incluindo os sistemas e interfaces;

II - adaptar os termos de uso e os critérios e métodos de aplicação;

III - adaptar os processos de moderação de conteúdos, incluindo a rapidez e a qualidade do processamento de notificações e quando necessário aplicar remoção de conteúdo, garantidos os procedimentos previstos no Capítulo III;

IV - testar e adaptar os sistemas algorítmicos, incluindo os sistemas de priorização e recomendação, de publicidade de plataforma;

V - reforço dos processos internos, recursos, testes, documentação ou supervisão de qualquer uma das suas atividades;

VI - adaptar a interface para prover mais informação aos usuários; e

VII - tomar medidas específicas para proteger os direitos de crianças e adolescentes, incluindo adoção e aprimoramento dos sistemas de verificação da idade, desenvolvimento e promoção de ferramentas de controle parental ou de notificação de abusos ou busca de apoio por parte de crianças e adolescentes, conforme o disposto no Capítulo X.

§ 1º Quando as medidas referidas no caput envolverem o uso de sistemas automatizados, essas deverão contemplar salvaguardas que se mostrem apropriadas e eficazes, especialmente por meio de supervisão humana com vistas a garantir a precisão, a proporcionalidade e a não discriminação ilegal ou
abusiva.

§ 2º As medidas implementadas pelos provedores, nos termos estabelecidos nesta Seção, deverão preservar a segurança das informações e a proteção de dados pessoais, nos termos da Lei nº 13.709, de 14 de agosto de 2018.

Art. 9º Os provedores deverão conceder, na forma da regulamentação e em prazo razoável, mediante requerimento e sempre que solicitado, acesso aos dados que contribuam para a detecção, identificação e compreensão dos riscos sistêmicos gerados pelos provedores, assim como para a avaliação das
medidas de mitigação de riscos de que trata o art. 8º.

Art. 10. Os provedores, na forma da regulamentação, devem apresentar o relatório de avaliação e atenuação de riscos sistêmicos.

Seção III - Das obrigações de Dever de Cuidado

Art. 11. Os provedores devem atuar diligentemente para prevenir e mitigar práticas ilícitas no âmbito de seus serviços, envidando esforços para aprimorar o combate à disseminação de conteúdos ilegais gerados por terceiros, que possam configurar:

I - crimes contra o Estado Democrático de Direito, tipificados no Decreto-Lei nº 2.848, de 7 de dezembro de 1940;

II - atos de terrorismo e preparatórios de terrorismo, tipificados pela Lei nº 13.260, de 16 de março de 2016;

III - crime de induzimento, instigação ou auxílio a suicídio ou a automutilação, tipificado no Decreto-Lei nº 2.848, de 7 de dezembro de 1940;

IV - crimes contra crianças e adolescentes previstos na Lei nº 8.069, de 13 de julho 1990, e de incitação à prática de crimes contra crianças e adolescentes ou apologia de fato criminoso ou autor de crimes contra crianças e adolescentes, tipificados no Decreto-Lei nº 2.848, de 7 de dezembro de 1940;

V - crime de racismo de que trata o art. 20, 20-A, 20-B e 20-C da Lei nº 7.716, de 5 de janeiro de 1989;

VI – violência contra a mulher, inclusive os crimes dispostos na Lei nº 14.192, de 4 de agosto de 2021; e

VII - infração sanitária, por deixar de executar, dificultar ou opor-se à execução de medidas sanitárias quando sob situação de Emergência em Saúde Pública de Importância Nacional, de que trata o art. 10 da Lei nº 6.437, de 20 de agosto de 1977.

§ 1º A avaliação do cumprimento do disposto no caput será feita tendo em vista:

I - as informações eventualmente prestadas em atendimento ao art. 9º;

II - a avaliação dos relatórios:

a) de avaliação de risco sistêmico, de que trata o art. 10; e

b) de transparência, de que trata o art. 23;

III - o tratamento dado ao recebimento de notificações e reclamações.

§ 2º A avaliação será realizada sempre sobre o conjunto de esforços e medidas adotadas pelos provedores, não cabendo avaliação sobre casos isolados.

Seção IV – Das obrigações quando houver risco iminente de danos Art. 12. Quando configurada a iminência de riscos descritos no art. 7º, ou a negligência ou insuficiência da ação do provedor, poderá ser instaurado, na forma da regulamentação e por decisão fundamentada, protocolo de segurança
pelo prazo de até 30 (trinta) dias, sem prejuízo de outras medidas legais cabíveis, procedimento de natureza administrativa cujas etapas e objetivos deverão ser objeto de regulamentação.

§ 1º A prorrogação do protocolo, por um prazo de até 30 (trinta) dias, poderá ocorrer quando demonstrada a insuficiência de medidas menos gravosas para afastar o risco iminente, após as ações tomadas no prazo inicial do protocolo.

§ 2° Prorrogado o protocolo, deverá o órgão emissor da decisão revisar a necessidade de sua manutenção a cada 30 (trinta dias), mediante decisão motivada de ofício e fundamentada em fatos concretos que demonstrem a continuidade dos riscos iminentes.

Art. 13. A partir da instauração do protocolo de segurança e devida notificação, os provedores poderão ser responsabilizados civilmente pelos danos decorrentes de conteúdo gerado por terceiros quando demonstrado conhecimento prévio, nos termos do art. 16.

Parágrafo único. A responsabilidade dos provedores por danos decorrentes de conteúdo gerado por terceiros, quando houver risco iminente de danos, será solidária, incidirá pelo período de duração do protocolo e será restrita aos temas e hipóteses nele estipulados.

Art. 14. A instauração do protocolo de segurança deverá apontar:

I - fundados elementos que caracterizem o risco iminente de danos;

II - identificação dos provedores impactados e indícios de que há insuficiência ou negligência na sua atividade;

III - a delimitação temática de quais conteúdos gerados por terceiros serão passíveis de responsabilização, conforme o § 2º do art. 7º;

IV - texto-resumo do protocolo de segurança que deverá ser publicizado para informar os usuários do respectivo provedor;

V - tempo de duração do protocolo; e

VI - lista dos quesitos relevantes que devem ser abordados por medidas de mitigação eficazes e proporcionais pelos provedores em seus sistemas no âmbito do protocolo de segurança.

Art. 15. Os provedores deverão produzir relatórios específicos das suas ações envolvendo o protocolo de segurança, conforme regulamentação.

§1º Conteúdos tornados indisponíveis em razão do protocolo de segurança deverão ser armazenados pelos provedores atingidos, pelo tempo determinado em regulamentação, para fins de análise posterior.

§ 2º Encerrado o período de duração do protocolo de segurança, deverá ser publicado em 30 (trinta) dias relatório sobre o protocolo, com base nas informações oferecidas pelos provedores, na forma da regulamentação.

§ 3º Será criado canal de denúncia para apuração de eventual abuso cometido no âmbito do protocolo operado.

§ 4º Configurado abuso na aplicação das medidas previstas no protocolo de segurança, os provedores ficam sujeitos às sanções previstas nesta Lei.

CAPÍTULO III
DA NOTIFICAÇÃO PELO USUÁRIO E DO DEVIDO PROCESSO NOS PROCEDIMENTOS DE MODERAÇÃO DE CONTEÚDO

Seção I - Da notificação pelo usuário

Art. 16. Os provedores deverão criar mecanismos que permitam a qualquer usuário notificá-los da presença, em seus serviços, de conteúdos potencialmente ilegais, de forma justificada.

§ 1º O mecanismo e os requisitos mínimos para a notificação de conteúdos serão definidos em regulamento.

§ 2º O registro da notificação de que trata este artigo configura-se como ato necessário e suficiente como prova do conhecimento pelos provedores sobre o conteúdo apontado como infringente, para fins do disposto no art. 13 desta lei.

Seção II - Da moderação de conteúdo e do processo de revisão

Art. 17. O procedimento de moderação de conteúdo e de conta deve observar o normativo vigente e ser aplicado com equidade, consistência e respeito ao direito de acesso à informação, à liberdade de expressão e à livre concorrência.

Parágrafo único. Os termos de uso, quanto à moderação de conteúdo e de contas, devem sempre estar orientados pelos princípios da necessidade, proporcionalidade e não discriminação, inclusive quanto ao acesso dos usuários aos serviços dos provedores.

Art. 18. Após aplicar as regras contidas nos termos de uso que impliquem moderação de conteúdos, incluindo aquelas envolvendo alteração de pagamento monetário ou publicidade de plataforma, os provedores de redes sociais e de mensageria instantânea devem, ao menos:

I – notificar o usuário que publicou o conteúdo sobre:

a) a natureza da medida aplicada e o seu âmbito territorial;

b) a fundamentação, que deve necessariamente apontar as cláusulas de seus termos de uso para aplicação e o conteúdo ou a conta que deu causa à decisão;

c) procedimentos e prazos para exercer o direito de pedir a revisão da decisão; e

d) se a decisão foi tomada exclusivamente por meio de sistemas automatizados fornecendo informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão, nos termos do art. 20,

§ 1º, da Lei nº 13.709, de 14 de agosto de 2018, quando cumpridos os requisitos para tanto;

II – responder de modo fundamentado e objetivo aos pedidos de revisão de decisões e providenciar a sua reversão imediata quando constatado equívoco.

§ 1º O código de conduta deverá dispor sobre os prazos razoáveis para cumprimento dos incisos I e II deste artigo.

§ 2º Em caso de provimento do pedido de revisão, as medidas aplicadas devem ser imediatamente revogadas, devendo ser dada publicidade ao equívoco constatado.

§ 3º Disponibilizar, por um prazo mínimo de seis meses, canal próprio destacado e de fácil acesso para formulação de denúncias sobre conteúdos e contas em operação e envio de pedido de revisão de decisões e consulta do histórico de interações entre o provedor e o usuário.

Seção III - Da publicização das ações de moderação de conteúdo

Art. 19. Os provedores de que trata esta Lei devem:

I – criar mecanismos para informar publicamente a ação, pelo provedor, de
moderação de conteúdo, independente da causa que deu origem à moderação;
e

II – manter pública a identificação de ação judicial que deu origem à moderação
em conteúdos, ressalvados processos em sigilo.

CAPÍTULO IV
DOS DEVERES DE TRANSPARÊNCIA

Seção I - Da transparência nos termos de uso e dos algoritmos de recomendação

Art. 20. Os provedores devem disponibilizar, de forma acessível, com informações claras, públicas e objetivas, ressalvados os segredos industrial e comercial, no idioma português, os termos de uso de seus serviços, que deverão incluir:

I – um sumário conciso com as principais características dos serviços e os principais elementos contidos nos termos de uso;

II – os tipos de conteúdos proibidos;

III – a faixa etária à qual se destinam;

IV – os potenciais riscos de uso;

V – explicação das etapas que o provedor executa para garantir que o conteúdo esteja em conformidade com os seus termos de uso;

VI – informação sobre os meios pelos quais o usuário pode notificar o provedor sobre possíveis violações de seus termos de uso ou presença de conteúdos ilegais em seus serviços;

VII – informação sobre canais para receber reclamações de usuários e mecanismos de contestação das decisões do provedor; e

VIII – informações sobre critérios e métodos de moderação em contas e conteúdos e a descrição geral dos eventuais sistemas automatizados utilizados nessa atividade;

Parágrafo único. Quando o provedor oferecer serviços de publicidade de plataforma, os seus termos de uso também devem informar, quais conteúdos:

I – são inelegíveis ou que não poderão ser objeto de publicidade; e

II – podem ensejar limitação de publicidade.

Art. 21. Os termos de uso dos provedores devem conter os parâmetros utilizados nos seus sistemas de recomendação de conteúdo, ressalvados os segredos comercial e industrial, bem como:

I – descrição geral dos algoritmos utilizados;

II – destaque para os principais parâmetros que determinam a recomendação ou direcionamento de conteúdo ao usuário; e

III – opções disponíveis aos usuários para modificar os parâmetros de recomendação ou direcionamento.

§ 1º Os parâmetros referidos no inciso II do caput devem ser capazes de explicar o motivo de certos conteúdos serem sugeridos ao usuário, incluir critérios relevantes para determinação das recomendações ou direcionamentos e como eles são balanceados entre si.

§ 2º Os provedores que utilizem dados pessoais para perfilamento com fins de recomendação de conteúdos devem oferecer a exibição de conteúdos não selecionados a partir de tais técnicas e criar mecanismos acessíveis para que o usuário possa optar entre diferentes formas de exibição, gestão e
direcionamento de conteúdos na plataforma.

§ 3º Aplica-se o disposto no caput ao direcionamento de publicidade de plataforma.

§ 4º Os provedores devem, por padrão, demandar ação humana e consentimento dos usuários para ativação de reprodução automatizada de conteúdos, salvo conteúdos musicais e listas de reprodução criadas pelo próprio usuário.

§ 5º É vedado aos provedores estimular a mudança do padrão estabelecido no § 4º.

§ 6º Os provedores devem adotar medidas técnicas que viabilizem a identificação de forma clara, inequívoca e em tempo real os conteúdos recomendados, de forma a diferenciá-los do conteúdo selecionado pelo usuário.

Art. 22. Os provedores deverão divulgar em seus termos de uso as medidas de governança adotadas no desenvolvimento e emprego dos sistemas automatizados, incluindo aquelas voltadas para:

I – a segurança, confiabilidade, precisão e não-discriminação ilegal ou abusiva;

II – a finalidade e a precisão dos algoritmos de moderação de conteúdo;

III – as medidas de atenuação de riscos sistêmicos atrelados a esses sistemas, conforme o art. 8º desta lei.

Seção II - Dos Relatórios de Transparência

Art. 23. Os provedores devem produzir relatórios semestrais de transparência, disponibilizados em seus sítios eletrônicos, de fácil acesso, legíveis por máquina, em português, de modo a informar procedimentos de moderação de conteúdo, nos termos da regulamentação.

§ 1º Os relatórios podem ter sua periodicidade reduzida em razão de relevante interesse público, como em casos de sistemático descumprimento dos ditames desta Lei, de calamidade pública ou em período eleitoral.

§ 2º Os relatórios devem conter informações qualitativas dos procedimentos realizados, que deverão incluir, entre outras, o detalhamento dos procedimentos de moderação de contas e de conteúdos adotados, ações implementadas para enfrentar atividades ilegais, mudanças significativas nos
termos de uso e sistemas de recomendação e dados sobre as equipes responsáveis por aplicação dos termos de uso.

§ 3º Os relatórios devem conter informações quantitativas e agregadas por operação que deverão possibilitar, entre outras, a determinação do número de usuários ativos e perfis de uso que permitam o estabelecimento de parâmetros de comparação na aplicação das obrigações previstas nesta lei e aferir a
acurácia e precisão sobre as quantidades de denúncias, notificações, e procedimentos de moderação de conteúdos, bem como aquelas realizadas em atendimento a medidas judiciais ou tomadas por meios automatizados.

§ 4º Até a edição de regulamentação, que irá detalhar as informações descritas nos §§ 2o
e 3o , o qual considerará a diversidade de modelos de negócios, e que deverão integrar os relatórios de transparência, os relatórios deverão ser elaborados com as informações constantes no Anexo desta lei.

§ 5o Os dados e os relatórios publicados devem ser disponibilizados com padrões tecnológicos abertos que permitam a comunicação, a acessibilidade e a interoperabilidade entre aplicações e bases de dados, garantida a anonimização dos dados pessoais.

§ 6º Os relatórios de transparência devem ser disponibilizados ao público em até 60 (sessenta) dias após o término do semestre em questão, e elaborados em linguagem clara, quando possível fazendo uso de recursos de acessibilidade.

Seção III - Da auditoria externa

Art. 24. O provedor deve realizar e publicar anualmente auditoria externa e independente para avaliação do cumprimento do disposto nesta Lei, e na regulamentação, que deverá abordar, no mínimo, os seguintes aspectos:

I - a eficiência no cumprimento das obrigações de análise e atenuação de riscos sistêmicos, de dever de cuidado e quando houver risco iminente de danos;

II - nível de eficiência, acurácia, precisão e cobertura das medidas de atenuação adotadas;

III - a não-discriminação ou a inexistência de vieses em suas decisões de moderação de contas e de conteúdos;

IV - os impactos da moderação de conteúdo na disseminação dos conteúdos de que trata o art.11

V - a confiabilidade, precisão e não-discriminação ilícita ou abusiva relacionadas ao uso de algoritmos; e

VI - impacto dos algoritmos na visibilidade, recomendação e ordenação de conteúdos jornalísticos.

§ 1º Os provedores deverão compartilhar as informações com os auditores independentes, que devem prestar contas dos elementos sobre os quais não foi possível chegar a uma conclusão e descrever os terceiros consultados como parte da auditoria;

§ 2º Serão consideradas auditorias externas independentes organizações que:

I - sejam independentes dos provedores e que não possuam conflitos de interesse em causa e com qualquer pessoa a eles ligada, seja de natureza concorrencial, econômica ou política;

II - não tenham prestado serviços que não sejam de auditoria relacionadas com as questões auditadas juntos aos provedores, nem a qualquer pessoa ligada a eles nos 12 (doze) meses antecedentes ao início da auditoria e que se comprometa a não prestar tais serviços no período de 12 (doze) meses
seguintes à conclusão da auditoria;

III - não tenham prestado serviços de auditoria em causa, nem a qualquer pessoa coletiva ligada aos provedores durante mais de 10 (dez) anos;

IV - não tenha condicionado o pagamento ao tipo de resultado obtido no relatório.

V - tenham experiência comprovada na área de gerenciamento e análise de riscos, com a devida capacidade e competência técnica; e

VI - tenham demonstrado ética profissional, em particular, com a existência e aderência aos respectivos códigos de conduta.

§ 3º Os prestadores de serviços de auditoria externa independente devem cumprir requisitos de segurança e confidencialidade das informações e de proteção de dados pessoais, nos termos da Lei nº 13.709, de 14 de agosto de 2018, e observar os segredos comercial e industrial.

§ 4º Todas as auditorias realizadas nos termos desta lei devem proteger adequadamente os direitos e interesses legítimos a que se destinam, não podendo exigir acessos que violem a proteção de dados pessoais, segredos comerciais e outras informações confidenciais dos provedores e de quaisquer
outras partes envolvidas, incluindo os destinatários do serviço.

Seção IV - Acesso à pesquisa

Art. 25. Os provedores deverão viabilizar o acesso gratuito de instituição científica, tecnológica e de inovação a dados desagregados, inclusive por meio de interface de programação de aplicações, para finalidade de pesquisa acadêmica, observados os segredos comercial e industrial, a anonimização e a
proteção de dados pessoais conforme a Lei no 13.709, de 14 de agosto de 2018 e conforme regulamentação.

Parágrafo único. O disposto no caput abrange o acesso a informações sobre os algoritmos usados na moderação de contas e de conteúdos, priorização, segmentação, recomendação e exibição de conteúdo, publicidade de plataforma e impulsionamento, e dados suficientes sobre como esses algoritmos afetam o conteúdo visualizado pelos usuários.

CAPÍTULO V
DOS DEVERES SOBRE A PUBLICIDADE DIGITAL

Art. 26. Os provedores que ofereçam publicidade de plataforma devem identificá-la, de modo que o usuário responsável pelo impulsionamento ou o anunciante sejam identificados.

§ 1º Os provedores devem oferecer informações pertinentes, direta e facilmente acessíveis a partir do anúncio publicitário, sobre os principais parâmetros utilizados para determinar o destinatário da exibição da publicidade de plataforma e de como alterar esses parâmetros.

§ 2° O disposto no caput aplica-se inclusive às plataformas de publicidade programática e de publicidade de usuário, que deverão ser publicamente informadas pelo beneficiado e identificada para os demais usuários, pelo provedor, de forma inequívoca.

§ 3° O provedor deve oferecer mecanismo para que a publicidade de usuário seja informada publicamente aos demais usuários.

§ 4o Os provedores e as plataformas de publicidade programática deverão apresentar informações, atualizadas ao menos semestralmente, que contenham todo o repositório de anúncios e conteúdos impulsionados e incluir entre estas a íntegra dos conteúdos, as informações que permitam a
identificação do responsável pelo pagamento, as características gerais da audiência contratada e o número total de destinatários alcançados, além de critérios adicionais e específicos a serem estipulados em regulamentação.

§ 5o As informações de que trata o § 4o devem ser disponibilizadas com padrões tecnológicos abertos que permitam a comunicação, a acessibilidade e a interoperabilidade entre aplicações e bases de dados.

Art. 27. O provedor e as plataformas de publicidade programática devem requerer a identidade, por meio de apresentação de documento válido no território nacional, de todos os anunciantes de publicidade de plataforma:

I - da pessoa física ou jurídica em cujo nome a publicidade de plataforma é apresentada;

II - da pessoa física ou jurídica que paga a publicidade de plataforma, caso seja diferente da pessoa referida no inciso I.

Parágrafo único. Ressalvado o disposto no art. 26, a identificação do contratante de publicidade de plataforma deve ser mantida em sigilo pelos provedores, podendo ser exigível por ordem judicial.

Art. 28. O provedor que ofereça publicidade de plataforma deve disponibilizar mecanismos para fornecer aos usuários as informações do histórico dos conteúdos publicitários com os quais a conta teve contato nos últimos 6 (seis) meses, detalhando informações a respeito dos critérios e procedimentos
utilizados para perfilamento que foram aplicados em cada caso.

Art. 29. A comercialização de publicidade de plataforma para divulgação por provedores sediados no exterior deverá ser realizada e reconhecida por sua representante no Brasil e conforme a legislação de regência da publicidade brasileira, quando destinada ao mercado nacional.

Art. 30. O compartilhamento de dados pessoais dos usuários dos provedores com terceiros, quando tiverem como objetivo exclusivo a exploração direta ou indireta no mercado em que atua ou em outros mercados, deve observar a Lei nº 13.709, de 14 de agosto de 2018 e com o disposto no art. 36 da Lei nº
12.529, de 30 de novembro, de 2011.

CAPÍTULO VI
DOS DIREITOS DE AUTOR E DIREITOS CONEXOS

Art. 31. Os conteúdos protegidos por direitos de autor e direitos conexos utilizados pelos provedores, incluindo-se aqueles ofertantes de conteúdo sob demanda e produzidos em quaisquer formatos que inclua texto, vídeo, áudio ou imagem, ensejarão remuneração a seus titulares pelos provedores, inclusive os provedores de aplicações ofertantes de conteúdo sob demanda, na forma de regulamentação pelo órgão competente, que disporá sobre os critérios, forma para aferição dos valores, negociação, resolução de conflitos, transparência e a valorização do conteúdo nacional, regional, local e independente.

§ 1º Ficam abrangidos pelo caput os conteúdos musical e audiovisual, sem prejuízo de outros conteúdos protegidos pela Lei n. 9.610, de 19 de fevereiro de 1998, garantindo-se a valorização do conteúdo nacional, regional, local e independente.

§ 2º Os titulares dos conteúdos protegidos mencionados no caput devem preferencialmente exercer seus direitos por meio de associações de gestão coletiva de direitos autorais, que negociarão com os provedores os valores a serem praticados, o modelo e prazo da remuneração, nos termos da
regulamentação, observado o disposto no §15 do art. 98, da Lei 9.610, de 19 de fevereiro de 1998.

§ 3º No processo de definição dos critérios e da forma de aferição da remuneração de que trata o caput, considerar-se-á a totalidade das receitas, inclusive de publicidade, geradas em benefício dos provedores, e inclusive os provedores de aplicações ofertantes de conteúdo sob demanda, em virtude de
conteúdo consumido no Brasil ou em virtude de conteúdo produzido por cidadãos brasileiros.

§ 4º É vedado aos provedores, inclusive aos provedores de aplicações ofertantes de conteúdo sob demanda frustrar ou reduzir, por quaisquer meios, a remuneração de direitos de autor e direitos conexos devida nos termos deste Artigo.

§ 5º Não constitui motivo legítimo para reduzir ou frustrar o pagamento previsto neste artigo a eventual contabilização de receitas descritas no § 4º em domicílio fiscal situado no exterior, mesmo nos casos em que tal operação contábil seja porventura reputada lícita do ponto de vista estritamente fiscal.

§ 6º Os provedores, inclusive os provedores de aplicações ofertantes de conteúdo sob demanda deverão adotar mecanismos para identificar e neutralizar a atuação de contas automatizadas que distorçam artificialmente ranqueamentos e listas de reprodução.

§ 7º No caso dos provedores, inclusive os provedores de aplicações ofertantes de conteúdo sob demanda, fica proibido aumentar ou reduzir artificiosamente, sem informação ao usuário, a frequência de utilização de obras ou fonogramas específicos a fim de privilegiar, nos sistemas de recomendação baseados em
algoritmo, a remuneração a empresa integrante do mesmo grupo econômico, a empresa sócia, controladora ou coligada da plataforma, bem como a empresa que tenha firmado acordo comercial com a plataforma".

CAPÍTULO VII
DOS CONTEÚDOS JORNALÍSTICOS

Art. 32. Os conteúdos jornalísticos utilizados pelos provedores produzidos em quaisquer formatos, que inclua texto, vídeo, áudio ou imagem, ensejarão remuneração às empresas jornalísticas, na forma de regulamentação, que disporá sobre os critérios, forma para aferição dos valores, negociação,
resolução de conflitos, transparência e a valorização do jornalismo profissional nacional, regional, local e independente.

§ 1º A remuneração a que se refere o caput não deve onerar o usuário final que acessa e compartilha sem fins econômicos os conteúdos jornalísticos.

§ 2º Farão jus à remuneração prevista no caput pessoa jurídica, mesmo individual, constituída há pelo menos 24 (vinte e quatro) meses, que produza conteúdo jornalístico original de forma regular, organizada, profissionalmente e que mantenha endereço físico e editor responsável no Brasil.

§ 3º É livre a pactuação entre provedor de aplicação e empresa jornalística, garantida a negociação coletiva pelas pessoas jurídicas previstas no § 2º, inclusive as que integrarem um mesmo grupo econômico, junto aos provedores quanto aos valores a serem praticados, o modelo e prazo da remuneração, observada a regulamentação.

§ 4º A regulamentação disporá sobre arbitragem em casos de inviabilidade de negociação entre provedor e empresa jornalística.

§ 5º A regulamentação a que se refere esse artigo deverá criar mecanismos para garantir a equidade entre os provedores e as empresas jornalísticas nas negociações e resoluções de conflito, sem prejuízo para as empresas classificadas como pequenas e médias, na forma do regulamento.

§ 6º O provedor não poderá promover a remoção de conteúdos jornalísticos disponibilizados com intuito de se eximir da obrigação de que trata este artigo, ressalvados os casos previstos nesta Lei, ou mediante ordem judicial específica.

§ 7º O Conselho Administrativo de Defesa Econômica – CADE coibirá atos de infração à ordem econômica do provedor de aplicação que abuse de sua posição dominante na negociação com as empresas jornalísticas.

CAPÍTULO VIII
DA ATUAÇÃO DO PODER PÚBLICO

Art. 33. São consideradas de interesse público, as contas mantidas em redes sociais indicadas como institucionais pelos integrantes da Administração Pública Federal, Estadual e Municipal, direta ou indireta, e pelos seguintes agentes políticos:

I – detentores de mandatos eletivos dos Poderes Executivo e Legislativo da União, dos Estados, do Distrito Federal e dos Municípios;

II – ocupantes, no Poder Executivo, dos cargos de:

a) Ministro de Estado, Secretário de Estado, Secretário Municipal ou equiparados; e

b) Presidente, Vice-Presidente e Diretor das entidades da Administração Pública indireta da União, dos Estados, do Distrito Federal e dos Municípios;

§ 1º Os titulares das contas de que trata o caput não poderão restringir a visualização de suas publicações.

§ 2º As decisões de provedores que constituam intervenção ativa ilícita ou abusiva em contas de interesse público autorizam o ajuizamento de ação judicial para a sua restauração, devendo o Poder Judiciário obrigar os provedores as restabelecerem, no prazo de 24 (vinte e quatro) horas, nos
casos em que fique comprovada a sua operação em conformidade com direitos fundamentais e com os princípios da legalidade, impessoalidade, moralidade, publicidade e eficiência.

§ 3º Caso possua mais de uma conta em uma plataforma, o agente político indicará aquela que representa oficialmente seu mandato ou cargo ao respectivo órgão corregedor, sendo as demais eximidas das obrigações deste artigo.

§ 4º As demais contas referidas no § 3º serão consideradas como de interesse público, ainda que não representem oficialmente o agente político, caso contenham, predominantemente, manifestação oficial própria do cargo destes agentes.

§ 5º O órgão corregedor de que trata o § 3º repassará a lista de contas de interesse público aos provedores de redes sociais e mensageria privada no prazo de 60 (sessenta) dias contados da posse do agente ou da criação da conta, o que ocorrer primeiro.

§ 6º A imunidade parlamentar material, na forma do art. 53 da Constituição Federal, estende-se aos conteúdos publicados por agentes políticos em plataformas mantidas pelos provedores de redes sociais e mensageria privada.

Art. 34. As entidades e os órgãos da Administração Pública, direta ou indireta, deverão fazer constar nos seus portais de transparência os seguintes dados sobre a contratação de publicidade de plataforma:

I – valor do contrato;

II – dados da empresa contratada e forma de contratação;

III – conteúdo da campanha;

IV – mecanismo de distribuição dos recursos;

V – critérios de definição do público-alvo;

VI – lista das páginas, aplicativos, jogos, canais, sítios eletrônicos e outros meios em que tais recursos foram aplicados; e

VII – número de aparições e valor aplicado na soma das aparições.

Art. 35. A Administração Pública não destinará recursos públicos para publicidade em sítios eletrônicos e contas em redes sociais que promovam, recomendem ou direcionem a discursos destinados aos ilícitos de que trata o caput do art. 11.

§ 1º Fica vedada a contratação de publicidade pela Administração Pública junto a provedores que não sejam constituídos de acordo com a legislação brasileira.

§ 2º Toda e qualquer comunicação de natureza publicitária disseminada pela administração pública nas esferas federal, estadual e municipal deve ser registrada em repositório no respectivo sítio eletrônico, conforme regulamento.

Art. 36. A Administração Pública deverá disponibilizar e especificar as informações sobre recursos investidos em publicidade destinados a meios de comunicação, incluídos os provedores de aplicação de internet.

Art. 37. Constitui ato ilícito, punível penal e administrativamente, qualquer punição disciplinar ou ato praticado por superior hierárquico que cause prejuízo a servidor público civil em função de conteúdo lícito por ele compartilhado em caráter privado, fora do exercício de suas funções.

CAPÍTULO IX
DO FOMENTO A EDUCAÇÃO PARA O USO SEGURO DA INTERNET

Art. 38. O cumprimento do dever constitucional do Estado na prestação da educação, em todos os níveis de ensino, inclui:

I - a capacitação, integrada a outras práticas educacionais, para o uso seguro, consciente e responsável das aplicações de internet de que trata esta Lei, incluindo campanhas para evitar a desinformação;

II – o desenvolvimento do pensamento crítico, da capacidade de pesquisa, da ética e do respeito ao pluralismo de opiniões;

III – o desenvolvimento de habilidades para argumentação, reflexão e análise crítica;

IV – a garantia e o ensino acerca do direito ao acesso à informação;V – a conscientização quanto ao papel da privacidade, da proteção de dados pessoais e da autodeterminação informativa, bem como quanto aos meios necessários para garanti-las;

VI – a célere promoção da alfabetização digital; e

VII – a formação de profissionais de ensino para o atendimento dos incisos anteriores.

§ 1º A União, os Estados e os Municípios devem envidar esforços, inclusive orçamentários, para ampliar e qualificar a participação das crianças, adolescentes e jovens nas práticas escolares que promovam a educação midiática conforme as diretrizes dispostas na Base Nacional Comum prevista
no art. 26 da Lei nº 9.394, de 20 de dezembro de 1996, com a finalidade de desenvolver nos alunos conjunto de habilidades para acessar, analisar, criar e participar de maneira crítica do ambiente informacional e midiático em todos os seus formatos e desenvolver seus potenciais de comunicação nos diversos meios, a partir das habilidades de interpretação consciente das informações, produção ativa de conteúdos e participação responsável na sociedade.

§ 2º As ações deverão ser desenvolvidas de forma articulada com as estratégias previstas na Política Nacional de Educação Digital, nos termos da Lei nº 14.533, de 11 de janeiro de 2023, sendo que as fontes de recursos dispostas no art. 11 dessa lei, poderão ser utilizadas para a implementação de
ações que observem as finalidades mencionadas neste artigo.

CAPÍTULO X
DA PROTEÇÃO DE CRIANÇAS E ADOLESCENTES

Art. 39. Os serviços dos provedores acessíveis por crianças e adolescentes devem ter como parâmetro dos seus serviços o melhor interesse da criança e adotar medidas adequadas e proporcionais para assegurar um nível elevado de privacidade, proteção de dados e segurança, nos termos definidos pela Lei
nº 8.069, de 13 de julho de 1990 e pela Lei nº 13.709, de 14 de agosto de 2018.

Parágrafo único. Os provedores devem criar mecanismos para ativamente impedir o uso dos serviços por crianças e adolescentes, sempre que não forem desenvolvidos para eles ou não estiverem adequados a atender às necessidades deste público.

Art. 40. É vedada a criação de perfis comportamentais de usuários crianças e adolescentes a partir da coleta e do tratamento de seus dados pessoais, inclusive aqueles obtidos nos processos de verificação de idade, bem como de dados grupais e coletivos, para fins de direcionamento de publicidade.

Parágrafo único. Para o adequado cumprimento das disposições do caput deste artigo, os provedores deverão adotar as medidas técnicas razoáveis para verificar a idade de seus usuários, observado o seu direito à privacidade e à proteção de dados pessoais.

CAPÍTULO XI
PROVEDORES DOS SERVIÇOS DE MENSAGERIA INSTANTÂNEA

Seção I - Dos deveres dos serviços de mensageria instantânea

Art. 41. Os serviços dos provedores de mensageria instantânea são obrigados a garantir a privacidade e projetar suas plataformas para limitar a distribuição massiva de conteúdos e mídias, devendo, com essa finalidade:

I – limitar, de acordo com o código de conduta, o encaminhamento de mensagens ou mídias para vários destinatários;

II – determinar que listas de transmissão só poderão ser encaminhadas e recebidas, em qualquer hipótese, por pessoas que estejam identificadas, ao mesmo tempo, nas listas de contatos de remetentes e destinatários;

III – instituir mecanismo para aferir consentimento prévio do usuário para inclusão em grupos de mensagens, listas de transmissão, canais de difusão de informações abertos ao público ou mecanismos equivalentes de agrupamentos de usuários, ressalvadas situações de emergência, estado de calamidade
pública e circunstâncias análogas, na forma da regulamentação; e

IV – desabilitar, por padrão, a autorização para inclusão em grupos e em listas de transmissão ou mecanismos equivalentes de encaminhamento de mensagens para múltiplos destinatários.

§ 1º O disposto nos Capítulos II e III desta lei aplicam-se a canais de difusão abertos ao público oferecidos por provedores de mensageria instantânea, excetuando-se as modalidades não abertas ao público, inclusive aquelas protegidas por criptografia de ponta a ponta.

§ 2º Os provedores de mensageria instantânea devem criar soluções para identificar e impedir mecanismos externos de distribuição massiva.

§ 3º Código de conduta deverá estabelecer obrigações para os provedores de mensageria instantânea tomarem outras medidas preventivas para conter distribuição massiva de conteúdo no âmbito dos seus serviços e para promover o estabelecido no caput.

Art. 42. Ordem judicial poderá determinar aos provedores de mensageria instantânea que preservem e disponibilizem informações suficientes para identificar a primeira conta denunciada por outros usuários quando em causa o envio de conteúdos ilícitos.

§ 1º A ordem judicial de que trata o caput somente será admitida:

I - se determinada de ofício ou mediante requerimento da autoridade policial ou do Ministério Público;

II - para fins exclusivos de prova em investigação criminal, em instrução processual penal e em investigação e instrução processual eleitoral; e

III - com identificação específica do conteúdo ilícito que deu ensejo à investigação, comprovado mediante cópia eletrônica.

§ 2° A ordem de preservação de informações de que trata o caput está limitada] às informações suficientes para identificar a primeira conta denunciada por outros usuários quando em causa o envio do conteúdo ilícito que deu ensejo à investigação, e seu prazo não poderá ser superior a seis meses.

Art. 43. Os provedores de mensageria instantânea que ofereçam serviços de contas destinadas ao uso comercial para clientes que facilitem o disparo automatizado e em larga escala para múltiplos usuários, devem desenvolver medidas para que o serviço seja usado estritamente para finalidades
institucionais ou comerciais, divulgação de produtos ou serviços comerciais, ou
prestação de serviço público.

§ 1º As contas comerciais de que trata o caput em serviços de mensageria instantânea devem garantir a veiculação de informação que identifique o remetente da mensagem.

§ 2º Os provedores de mensageria instantânea que ofertem contas comerciais devem exigir de seus usuários, sejam pessoas físicas ou jurídicas, uma declaração consciente e inequívoca de que o aplicativo comercial não deve ser utilizado para finalidades de propaganda eleitoral e partidária, nem para
distribuir qualquer conteúdo não relacionado a finalidades institucionais e comerciais.

§ 3º Caso o provedor de serviços de mensageria instantânea tenha conhecimento do encaminhamento de mensagens e mídias que não se enquadrem no escopo do serviço comercial, a conta deverá ser bloqueada.

CAPÍTULO XII
DOS TRÂMITES JUDICIAIS E DE INVESTIGAÇÃO

Art. 44. As decisões judiciais que determinarem a remoção imediata de conteúdo ilícito relacionado à prática de crimes a que se refere esta Lei, deverão ser cumpridas pelos provedores no prazo de até vinte e quatro horas, sob pena de multa de R$ 50.000,00 (cinquenta mil reais) até R$ 1.000.000,00
(um milhão reais), por hora de descumprimento, a contar do término da vigésima quarta após o recebimento da notificação.

Parágrafo único. A multa prevista no caput poderá ser aplicada em triplo em casos que envolvam publicidade de plataforma.

Art. 45. Quando o provedor tomar conhecimento de informações que levantem suspeitas de que ocorreu ou que possa ocorrer um crime que envolva ameaça à vida, ele deverá informar imediatamente da sua suspeita às autoridades competentes.

Art. 46. Os provedores deverão guardar, pelo prazo de 6 (seis) meses, a partir da remoção ou desativação:

I - conteúdo que tenha sido removido ou cujo acesso tenha sido desativado como consequência aos deveres estabelecidos por esta Lei ou por decisões judiciais, bem como quaisquer dados e metadados conexos removidos; e

II - os respectivos dados de acesso à aplicação, como o registro de acesso, endereço de protocolo de internet, incluindo as portas de origem, além de dados cadastrais, telemáticos, outros registros e informações dos usuários que possam ser usados como material probatório, inclusive as relacionadas à forma ou meio de pagamento, quando houver.

§ 1º A pedido formal das autoridades competentes ou em razão de decisão judicial, o prazo previsto no caput poderá ser ampliado, enquanto necessário no âmbito de processo administrativo ou judicial em curso, até sua respectiva conclusão.

§ 2º Os provedores devem garantir que o conteúdo ilícito e os dados relacionados estejam sujeitos a procedimentos técnicos e organizacionais adequados, incluindo a garantia da cadeia de custódia da prova.

CAPÍTULO XIII
DAS SANÇÕES

Art. 47. Os provedores, em razão das infrações cometidas às normas previstas nesta Lei, ficam sujeitos às seguintes sanções administrativas, aplicáveis de forma isolada ou cumulativa:

I - advertência, com indicação de prazo para adoção de medidas corretivas;

II - multa diária, observado o limite total a que se refere o inciso III;

III – multa simples, de até 10% (dez por cento) do faturamento do grupo econômico no Brasil no seu último exercício ou, ausente o faturamento, multa de R$ 10,00 (dez reais) até R$ 1.000 (mil reais) por usuário cadastrado do provedor sancionado, limitada, no total, a R$ 50.000.000,00 (cinquenta milhões
de reais), por infração;

IV - publicação da decisão pelo infrator;

V - proibição de tratamento de determinadas bases de dados; e

VI – suspensão temporária das atividades.

§ 1º Após procedimento administrativo que possibilite a oportunidade de ampla defesa, as sanções serão aplicadas de forma gradativa, isolada ou cumulativa, de acordo com as peculiaridades do caso concreto e considerados os seguintes parâmetros e critérios:

I - a gravidade e a natureza das infrações e a eventual violação de direitos;

II - a boa-fé́ do infrator;

III - a vantagem auferida pelo infrator, quando possível estimá-la;

IV - a condição econômica do infrator;

V - a reincidência;

VI - o grau do dano;

VII - a cooperação do infrator;

VIII - a pronta adoção de medidas corretivas; e

IX - a proporcionalidade entre a gravidade da falta e a intensidade da sanção.

§ 2° Antes ou durante o processo administrativo do § 1º, poderão ser adotadas medidas preventivas, incluída multa cominatória, observado o limite total a que se refere o inciso III do caput, quando houver indício ou fundado receio de que o provedor:

I - cause ou possa causar dano irreparável ou de difícil reparação; ou

II - torne ineficaz o resultado do processo.

§ 3° O disposto neste artigo não substitui a aplicação de outras sanções administrativas, civis ou penais definidas na Lei n° 8.078, de 11 de setembro de 1990, na Lei n° 13.709, de 14 de agosto de 2018, e em legislação específica.

Art. 48. As sanções não serão aplicadas a processos de moderação de conteúdos específicos por iniciativa própria dos provedores e de acordo com seus termos de uso, salvo em caso de descumprimento sistemático das obrigações previstas no Capítulo III.

Art. 49. O produto da arrecadação das multas aplicadas com base nesta Lei, inscritas ou não em dívida ativa, será destinado ao Fundo de Defesa de Direitos Difusos de que tratam o art. 13 da Lei nº 7.347, de 24 de julho de 1985, e a Lei nº 9.008, de 21 de março de 1995.

CAPÍTULO XIV
DO CRIME EM ESPÉCIE

Art. 50. Promover ou financiar, pessoalmente ou por meio de terceiros, mediante uso de conta automatizada e outros meios ou expedientes não fornecidos diretamente pelo provedor de aplicações de internet, divulgação em massa de mensagens que contenha fato que sabe inverídico, que seja capaz
de comprometer a higidez do processo eleitoral ou que possa causar dano à integridade física e seja passível de sanção criminal.

Pena: reclusão, de 1(um) a 3 (três) anos e multa.

CAPÍTULO XV
DA REGULAÇÃO DOS PROVEDORES

Art. 51. Serão atribuições do Comitê Gestor da Internet no Brasil (CGI.br), além daquelas previstas pelas Leis nº 12.965, de 23 de abril de 2014, e nº 13.853, de 8 de julho de 2019, as seguintes:

I – realizar estudos, pareceres e propor diretrizes estratégicas sobre liberdade, responsabilidade e transparência na internet;

II – realizar estudos e debates para aprofundar o entendimento sobre desinformação, e propor diretrizes para o seu combate, no contexto da internet e das redes sociais;

III – apresentar diretrizes para a elaboração de código de conduta para os provedores de redes sociais, ferramentas de busca e mensageria instantânea, para a garantia dos princípios e objetivos estabelecidos nos arts. 3º e 4º, inclusive quanto a obrigações para que os serviços de mensageria instantânea
tomem medidas preventivas para conter a difusão em massa de conteúdo e para enfrentar a desinformação no contexto da internet e das redes sociais;

IV – validar os códigos de condutas elaborados na forma do inciso III deste artigo;

V – realizar estudos sobre os procedimentos de moderação de contas e de conteúdos adotados pelos provedores de redes sociais, bem como sugerir diretrizes para sua implementação;

VI – fornecer diretrizes e subsídios para os termos de uso dos provedores de redes sociais e de serviços de mensageria instantânea;

VII – organizar, anualmente, conferência nacional sobre liberdade, responsabilidade e transparência na internet;

VIII – publicar a relação dos provedores que se enquadram no disposto no art. 2o desta lei;

IX – emitir recomendações prévias a eventual instauração de processo administrativo em caso de insuficiência das informações contidas nos relatórios de transparência ou avaliação insatisfatória por parte da auditoria independente.

X - emitir diretrizes e critérios para a instauração dos protocolos de segurança de que trata esta Lei;

XI - emitir diretrizes e requisitos para a análise de riscos sistêmicos de que trata esta Lei; e

XII - analisar os relatórios de avaliação de risco sistêmico dos provedores.

Parágrafo único. Fica garantida a composição multisetorial do CGI.br para fins de cumprimento das suas competências, com participação do Poder Público, do setor empresarial, do terceiro setor e da comunidade técnico-científica.

Art. 52. Os provedores deverão elaborar código de conduta a partir de diretrizes definidas pelo CGI.br, que incluam medidas para a garantia das finalidades desta lei, com criação de indicadores qualitativos e quantitativos.

§ 1º O código de conduta deverá ser formulado em até seis meses após a emissão das diretrizes, sendo apresentado ao CGI.br para validação.

§ 2º O código de conduta e os indicadores previstos no caput deverão ser públicos, exceto no que a publicidade comprometer a segurança de sua aplicação e dos serviços oferecidos pelos provedores de aplicação.

§ 3º Os provedores deverão disponibilizar publicamente espaço para apresentação de denúncias de violações das políticas e medidas constantes no código de conduta, ou acrescentar essa possibilidade em seus instrumentos de recebimento de denúncias.

Art. 53. Os provedores serão representados por pessoa jurídica no Brasil, cuja identificação e informações serão facilmente acessíveis nos sítios dos provedores na internet, devendo estes representantes disponibilizar às autoridades que detenham competência legal para sua requisição, nos termos
desta Lei, informações cadastrais referentes aos usuários.

Parágrafo único. A representação referida no caput deve ter plenos poderes para:

I – responder perante as esferas administrativa e judicial;

II – fornecer às autoridades competentes as informações relativas ao funcionamento, às regras próprias aplicáveis à expressão de terceiros e à comercialização de produtos e serviços do provedor;

III - cumprir as determinações judiciais; e

IV – responder e cumprir eventuais penalizações, multas e afetações financeiras que a empresa possa incorrer, especialmente por descumprimento de obrigações legais e judiciais.

CAPÍTULO XVI
DISPOSIÇÕES FINAIS

Art. 54. Os incisos VI e VIII do artigo 5º, o art. 13 e o art. 15, todos da Lei nº 12.965, de 23 de abril de 2014, passam a vigorar com as seguintes redações:
"Art. 5º

VI - registro de conexão: o conjunto de informações referentes à data e hora de início e término de uma conexão à internet, sua duração, o endereço IP e a porta lógica utilizados pelo terminal para o envio e recebimento de pacotes de dados;

VIII - registros de acesso a aplicações de internet: o conjunto de informações referentes à data e hora de início e término do acesso a uma determinada aplicação de internet a partir de um determinado endereço IP e porta lógica" (NR)

"Art.13
§ 2º A autoridade policial ou administrativa ou o Ministério Público poderá requerer cautelarmente que os registros de conexão e os dados pessoais cadastrais sejam guardados por prazo superior ao previsto no caput

§ 5º Em qualquer hipótese, a disponibilização ao requerente dos registros de que trata este artigo e dos dados pessoais cadastrais deverá ser precedida de autorização judicial, conforme disposto na Seção IV deste Capítulo e a disponibilização de dados cadastrais deverá observar o art.
10, § 3º, desta Lei

§ 7º Os pedidos de que trata o § 2º devem se dar no âmbito de processo administrativo ou judicial em curso e especificar os indivíduos cujos dados estão sendo requeridos e as informações desejadas, sendo vedados pedidos coletivos que sejam genéricos ou inespecíficos." (NR)

§ 2º A autoridade policial ou administrativa ou o Ministério Público poderá requerer cautelarmente que os registros de conexão, de acesso a aplicações de internet, dados pessoais cadastrais ou outras informações de identificação do usuário ou do terminal relacionadas ao registro de acesso
à aplicação existente sejam guardados, inclusive por prazo superior ao previsto no caput, observado o disposto nos §§ 3º e 4º do art. 13.§ 3º Em qualquer hipótese, a disponibilização ao requerente dos registros de que trata este artigo deverá ser precedida de autorização judicial, conforme disposto na Seção IV deste Capítulo, e a disponibilização de dados cadastrais deverá observar o art.
10, § 3º, desta Lei." (NR)

Art. 55. O art. 19 da Lei nº 12.965, de 23 de abril de 2014, passa a vigorar acrescido do seguinte parágrafo:
"Art. 19

§ 5o As responsabilizações civis previstas no art. 6º da Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet configuram exceções ao disposto no caput deste artigo." (NR)

Art. 56. O art. 21 da Lei nº 12.965, de 23 de abril de 2014, passa a vigorar com a seguinte redação:

"Art. 21. O provedor de aplicações de internet que disponibilize conteúdo gerado por terceiros será
responsabilizado subsidiariamente quando, após o recebimento de notificação pelo participante ou seu
representante legal, deixar de promover, de forma diligente, no âmbito e nos limites técnicos do seu serviço, a indisponibilização de conteúdo que:

I – viole a intimidade, decorrente da divulgação de cenas de nudez ou de atos sexuais de caráter privado sem autorização de seus participantes; ou

II – contenha imagens ou representações de violência ou cenas de exploração ou abuso sexual envolvendo criança ou adolescente, nos termos da Lei nº 8.069, de 13 de julho de 1990."
(NR)

Art. 57. A Lei nº 9.504, de 30 de setembro de 1997 passa a vigorar com as seguintes alterações:
"Art.26

XVI - despesas relacionadas à contratação de serviço de tratamento de dados." (NR)

"Art. 28 § 4º

III - o registro das suas atividades de tratamento de dados, nos termos do artigo 37 da Lei 13.709, de 14 de agosto de 2018." (NR)

Art. 58. O art. 319 do Código de Processo Penal - Decreto-Lei nº 3.689, de 3 de outubro de 1941 passa a vigorar com a seguinte redação:

"Art. 319. São medidas cautelares diversas da prisão:

X – retirada ou bloqueio de conteúdo, suspensão de perfil ou conta ou proibição de acesso à internet." (NR)

Art. 59. No prazo de 05 (cinco) anos a contar da data de publicação desta Lei, será promovida a sua revisão, a partir da avaliação do cumprimento dos princípios, objetivos e responsabilizações desta Lei, bem como a aferição da efetividade e acurácia das medidas e dos relatórios de transparência de que
tratam os arts. 10 e 23.

Art. 60. Esta Lei entra em vigor no prazo de:

I – 12 (doze) meses, a partir da data de sua publicação, quanto aos arts. 7o ao 10 e 23 ao 25;

II – 90 (noventa) dias, a partir da data de sua publicação, quanto aos arts. 12 ao 15, 20 ao 22, 26 ao 30, 32, 38, 39, 40 e 44 ao 46; e

III – na data de sua publicação, para os demais dispositivos

ANEXO

1. Informações que deverá conter o relatório qualitativo a que faz referência o art. 23, § 2o:

1.1 Detalhamento dos procedimentos adotados e do modo de cumprimento das obrigações dispostas nesta Lei, bem como modificações ocorridas no período;

1.2 Descrição qualificada das providências adotadas, novas ferramentas ou outras ações pelas plataformas digitais de conteúdo de terceiros para eliminar atividades criminosas da plataforma;

1.3 Informações sobre mudanças significativas realizadas nos sistemas de recomendação, organização e priorização de conteúdo jornalístico e noticioso, os objetivos e justificativas;

1.4 Descrição geral dos sistemas algoritmos usados e os principais parâmetros que determinam o direcionamento, recomendação ou exibição dos conteúdos para os usuários, incluindo:

a) as razões para a importância relativa de tais parâmetros;

b) as opções disponíveis aos usuários para modificar ou influenciar os parâmetros de recomendação e dados agregados sobre a adesão dos usuários aos diferentes parâmetros;

c) os critérios mais significativos na determinação das informações recomendadas aos usuários e como eles são balanceados entre si;

d) os objetivos que o sistema foi projetado para atingir e a avaliação da performance do sistema em relação a esses objetivos; e

e) que tipo de conteúdo ou elementos os sistemas algoritmos estão otimizando e priorizando para a exibição de conteúdo na plataforma;

1.5 Decisões e moderações de classificação específicas de conteúdo com o tipo de conteúdo que a plataforma rebaixa, desencoraja ou exclui, incluindo as modificações realizadas no período; e

1.6 Conteúdos exibidos como resultados do sistema de recomendação em níveis de subgrupo, de forma a demonstrar como este se comporta diante de cada grupo demográfico;

1.7 Critérios e metodologias usadas para prestar informações aos usuários sobre modificações de políticas próprias e termos de uso e sobre decisões de intervenção ativa da plataforma e suas aplicações sobre conteúdo ou conta; e

1.8 Os critérios, metodologias e métricas para aferição do alcance de publicidade de plataforma, sujeitas à verificação e auditoria independente.

2. Informações agregadas que deverá conter o relatório quantitativo a que faz referência o art. 23, § 3o:

2.1 Número total de usuários que acessam os provedores a partir de conexões localizadas no Brasil no período analisado;

2.2 Informações granularizadas sobre quantitativos de conteúdos gerados por seus usuários, tempo médio de uso, e outras métricas indispensáveis para estabelecer parâmetros de comparação para a aplicação das obrigações previstas nesta lei.

2.3 Número total de denúncias e notificações realizadas por usuários e a classificação do seu conteúdo por categoria de violação dos termos e políticas de uso e da legislação nacional;

2.4 Número total de medidas aplicadas a contas e conteúdos, conforme caput, adotadas em razão do cumprimento dos termos e políticas de uso próprios dos provedores e do cumprimento desta Lei, segmentadas por regra aplicada e por tipo de medida adotada;

2.5 Número total de pedidos de revisão apresentados por usuários a medidas aplicadas a contas e conteúdos, conforme caput, em razão dos termos e políticas de uso próprios dos provedores e do cumprimento desta Lei, bem como as medidas revertidas após análise dos recursos, segmentados por regra aplicada e tipo de medida adotada;

2.6 Proporção de decisões revertidas em contas e conteúdos, após análise dos pedidos de revisão, segmentados por categoria de violação e tipo de decisão, incluída a segmentação das decisões adotadas de forma automatizada e o tempo médio entre os pedidos de revisão e a reversão das decisões;

2.7 Número total de medidas aplicadas a contas e conteúdos adotadas em razão do cumprimento de ordem judicial, respeitadas as informações sob sigilo judicial;

2.8 Número de notificações tratadas por meios automatizados;

2.9 Médias de tempo entre a detecção de irregularidades e a adoção de medidas em relação às contas e aos conteúdos referidos nos incisos 2.2, 2.3 e 2.4;

2.10 Características gerais das equipes envolvidas na aplicação de termos e políticas de uso em relação a conteúdos gerados por terceiros, incluindo número de pessoas envolvidas na atividade, modelo de contratação, bem como estatísticas sobre seu idioma de trabalho, qualificação, indicativos de
diversidade atributos demográficos e nacionalidade;

2.11 Número total de medidas de sinalização, remoções ou suspensões que foram revertidas pelo provedor;

2.12 Informações agregadas sobre o alcance comparado de conteúdos identificados como irregulares pelo provedor em relação aos demais conteúdos em veiculação no período;

2.13 Dados relacionados a engajamentos ou interações com conteúdos que foram identificados como irregulares, incluindo número de visualizações e de compartilhamentos e alcance;

2.14 Os critérios, metodologias e métricas usadas por seus sistemas automatizados no monitoramento e execução das suas políticas próprias e termos de uso;

2.15 No caso de medidas de moderação automatizadas, informações gerais sobre os seus critérios de operação, grau de acurácia, distinguindo entre grau de precisão e cobertura, e mecanismos para monitoramento, mensuração e controle de vieses;

2.16 Informações sobre o emprego e funcionamento de sistemas automatizados, incluindo as bases de operação e treinamento dos algoritmos e a análise de seus impactos sobre a circulação, disponibilização, promoção, redução do alcance ou remoção de conteúdos;

2.17 Atualização das políticas próprias e termos de uso feitos no semestre, a data da modificação e a justificativa geral para sua alteração;

2.18 Número total de medidas aplicadas sobre as contas de que trata o art. 33 desta Lei, segmentadas por regras aplicadas, por metodologia utilizada na detecção da desconformidade e em que proporção, e por tipo de medida adotada; e

2.19 Informações completas sobre a aplicação do código de conduta e medidas determinadas pelo órgão regulador independente, incluindo o seu desempenho a partir de métricas pactuadas com o órgão regulador e o montante do investimento realizado.

Sala das Sessões, em de de 2023.
Deputado ORLANDO SILVA
Relator"

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.