Brasil foi segundo país a propor regulação de inteligência artificial, mas sofre para aprová-la

Apenas China tem marco legal, embora 21 países já citem inteligência artificial em leis e 18 discutam legislação; Europa espera aprovar marco até fim do ano

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo

O Brasil foi um dos pioneiros na regulamentação da inteligência artificial. A Câmara dos Deputados começou a discutir uma lei de ainda em fevereiro de 2020, antes mesmo da União Europeia, mas não conseguiu aprovar a legislação até agora. O assunto envolve interesses de empresas de tecnologia, governos e consumidores.

Pouco do projeto original restou, após uma comissão de juristas elaborar um texto substitutivo, acatado em grande parte pelo Senado, que agora discute proposta relatada pelo senador Eduardo Gomes (PL-TO).

"Em 20 anos de congresso, esse é o único tema em que, passado um mês, o especialista com quem conversei sabe menos do que sabia antes", diz Gomes em entrevista à Folha.

Ilustração em vetor de um homem de perfil em frente ao computador. Na tela, imagem de uma cabeça com um cérebro artificial. Balões de fala saem do computador e do homem.
Ilustração mostra humano interagindo com inteligência artificial na tela de um computador - artem/Adobe Stock

A velocidade da inovação em inteligência artificial desafia os legisladores. Um grupo de especialistas convocado pelo Senado para discutir o tema, por exemplo, escreveu o anteprojeto do marco regulatório antes do ganho exponencial de popularidade em 2023 do ChatGPT —IA que gera textos convincentes a partir de instruções do usuário.

A proposta de legislação em tramitação no Congresso adota abordagem normativa, com recomendações para diferentes formas de aplicação de inteligência artificial: de score para distribuição de crédito até reconhecimento facial na segurança pública —o que seria proibido. Novas aplicações de IA não cobertas por esse texto precisariam de deliberação futura.

A Câmara dos Deputados iniciou o debate em 2020 com um projeto baseado em princípios —respeito à dignidade humana, transparência nos algoritmos e proteção de dados pessoais. O projeto, entretanto, foi criticado por ser vago quando passou na casa em 2021.

Especialistas apontam que é necessário cuidado ao debater o tema: uma legislação restrita de mais pode inviabilizar o desenvolvimento de tecnologia na área no país; uma de menos deixa os cidadãos vulneráveis a abusos de empresas e do Estado.

Mesmo o país que começou a discutir primeiro inteligência artificial —Taiwan—, ainda em 2019, não conseguiu aprovar o próprio arcabouço regulatório. O projeto apresentado, entretanto, não foi avaliado pelo Congresso nem há certeza se seria aprovado pelos legisladores.

A ilha é um ponto estratégico na geografia do desenvolvimento de IA: a principal produtora de chips e semicondutores do mundo a TSMC fica baseada em Taiwan e fabrica, entre outras coisas, as placas de inteligência artificial da Nvidia. Essas últimas peças de computador fizeram a empresa norte-americana atingir valor de mercado de US$ 1 trilhão nesse ano.

Os legisladores locais priorizaram o desenvolvimento tecnológico e aprovaram uma lei de promoção a empresas de tecnologia de ponta, IA inclusa, que isenta negócios da área de certas regras regulatórias e de impostos.

O único país que aprovou um marco regulatório sobre inteligência artificial até o momento é a China, mas não o fez pela via legislativa. O órgão regulador da internet elaborou medidas para reger serviços que gerem textos, imagens ou vídeos, como ChatGPT e Dall-E.

As regras foram escritas com base em estudos da Administração do Ciberespaço da China, que desde 2022 tem analisado se os recursos usados pelas plataformas locais de IA são morais, éticos, transparentes e se permitem prestação de contas.

O governo chinês, por outro lado, cria oportunidades para pequenas empresas testarem tecnologias inovadoras sem terem de atender a regulação vigente de forma integral —o modelo é chamado de sandbox regulatório e visa incentivar a inovação, de acordo com o professor de direito e especialista em tecnologia Luca Belli, da FGV.

A União Europeia, por sua vez, escolheu em sua proposta uma abordagem de avaliação de risco, similar àquela usada na proteção do consumidor. Parlamentares do bloco esperam que as medidas entrem em vigor até o fim deste ano.

O projeto de lei considera a inteligência artificial um produto, que precisa passar por processos de avaliação e certificação antes da entrada no mercado.

São banidos, por exemplo, os usos de IA que representam riscos classificados como inaceitáveis: sistemas com objetivo de manipular pessoas, explorar vulnerabilidade de grupos específicos, recursos de pontuação social e identificação biométrica em tempo real e à distância.

Chile, Colômbia, Costa Rica, Israel, México, Panamá, Filipinas e Tailândia também discutem seus próprios modelos de regulação. Esse panorama foi traçado pelo especialista americano em direito internacional Kayahan Cantekin, para a Biblioteca do Congresso dos Estados Unidos. O artigo é de agosto.

Na atual liderança no mercado de inteligência artificial, os EUA não discute uma legislação a nível federal. Lá, por enquanto, cabe aos estados a responsabilidade de criar normas específicas para recursos de inteligência artificial.

O presidente Joe Biden recebeu, em julho, as principais empresas do setor —OpenAI (desenvolvedora do ChatGPT), Alphabet (dona do Google), Meta (dona do Facebook), Microsoft e outras startups proeminentes— para discutir medidas de segurança.

Os porta-vozes das companhias assumiram compromissos voluntários com a Casa Branca de inserir marcas d'água em conteúdo gerado por inteligência artificial, reforçar testes e outras medidas para torna a tecnologia mais confiável.

O presidente-executivo da OpenAI, Sam Altman, é uma das vozes mais ativas nesse debate e defende que a regulação da IA será vital para desenvolver a tecnologia com segurança, embora o setor de tecnologia seja historicamente avesso a regras. Ele ressalva que errar a dose na elaboração da lei e travar o desenvolvimento econômico é um risco.

"Os modelos que são 10 mil vezes mais potentes que o GPT-4, tão inteligentes quanto a civilização humana, ou seja lá o que for, provavelmente merecem alguma regulação [para evitar abusos]", disse Altman em evento realizado nesta segunda-feira (25).

"Não quero ter que opinar, toda vez que entro em um avião, se ele será seguro, mas confio que eles são bastante seguros. A regulação tem sido um bem positivo nesse aspecto", ele acrescentou.

No total, 21 países já têm leis que citam e regulam inteligência artificial em algum sentido específico. No Chile, por exemplo, o código penal tipifica fraudes e estelionatos com uso de IA. A Suécia tem legislação sobre carros autônomos e a Espanha, contra vieses discriminatórios na tecnologia.

Outras 13 nações têm decisões judiciais que criaram jurisprudências que orientam a interpretação da justiça em litígios sobre inteligência artificial, de direitos autorais a riscos a privacidade. O Brasil está fora dessa lista.

Erramos: o texto foi alterado

Versão anterior de infográfico publicado nesta reportagem tinha títulos dos mapas invertidos. O primeiro mapa mostra países que propuseram leis para regulamentar a inteligência artificial, e o segundo, os que têm legislação sobre inteligência artificial.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.