Marco legal da inteligência artificial deve proteger pessoas, diz relatora

Para advogada, ferramentas afetam cidadãos e regulação exige cuidado

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo

A inteligência artificial está na análise de crédito, nos contratos de seguros, em previsões e decisões que afetam a vida das pessoas, e por isso precisa ser regulada com cuidado, defende Laura Schertel, relatora da Comissão de Juristas do Marco Legal da Inteligência Artificial.

"Você acaba classificando pessoas, classifica os consumidores, atribui muitas vezes notas identificando quem tem menor ou maior risco de inadimplência. Uma pessoa pode pegar um crédito mais caro por causa disso, ou então um seguro mais caro", diz ela.

A comissão de juristas foi instalada no dia 30 de março, após o PL 872/2021 ser aprovado na Câmara dos Deputados. O objetivo é auxiliar na formulação do projeto do lei, que está no Senado e recebeu críticas de especialistas pela rapidez com que avançou no Congresso.


Laura Schertel, 38

É relatora da comissão de juristas responsável por subsidiar a elaboração de substitutivo sobre inteligência artificial no Brasil. É advogada e professora da UnB (Universidade de Brasília), do IDP (Instituto Brasileiro de Ensino Desenvolvimento e Pesquisa) e pesquisadora visitante na Universidade Goethe de Frankfurt

Laura Schertel , jurista e relatora da Comissão de juristas responsável por subsidiar a elaboração de substitutivo sobre Inteligência Artificial - Gabriel Cabral/Folhapress

Para Schertel, a regulação não deve ser feita às pressas. "Também temos um problema relacionado à transparência. Muitas vezes há uma dificuldade de compreender exatamente quais foram os critérios utilizados para que a decisão fosse tomada", afirma.

As ferramentas de inteligência artificial estão presentes tanto em atividades mais simples —esta entrevista, por exemplo, foi transcrita por um bot (um robô programado para executar uma função) disponível no Telegram— até nas mais complexas, como no controle de carros autônomos.

O projeto original, diz a relatora, visava mais desregular do que regular por apresentar um texto subjetivo, sem definir uma gradação para os diferentes níveis e riscos da inteligência artificial.

"A regulação da inteligência artificial exige uma verdadeira inovação jurídica: precisamos de orientações concretas e não apenas de normas gerais; precisamos pensar em prevenção e não apenas em reparação. Qualquer ação regulatória deve proteger os direitos dos indivíduos e da coletividade."

A comissão vai gerar subsídios para que o relator Eduardo Gomes (PL-TO) e o Congresso tomem uma decisão, segundo ela. O projeto final dos juristas deve ser apresentado em até 120 dias após o início da comissão.

Por que regular a aplicação da inteligência artificial no Brasil? Podemos entender a inteligência artificial como um conjunto de tecnologias que utiliza uma grande base de dados e que busca resolver problemas cotidianos. Utilizamos essas ferramentas para os mais diversos setores da sociedade, tanto no setor público quanto no setor privado.

A IA é utilizada para nos ajudar a fazer previsões, para classificar e para a tomada de decisões. Na área de [análise de] crédito, na área de seguros, todas essas áreas em que é preciso reduzir riscos de negócio, por exemplo. Você acaba classificando pessoas, classifica os consumidores, atribui muitas vezes notas identificando quem tem menor ou maior risco de inadimplência.

Uma pessoa pode pegar um crédito mais caro por causa disso, ou então um seguro mais caro. Também temos um problema relacionado à transparência. Muitas vezes há uma dificuldade de se compreender exatamente quais foram os critérios utilizados para que a decisão fosse tomada.

Outro problema que tem sido abordado é a discriminação algorítmica. Os algoritmos que aprendem com os exemplos que você dá para ele. Os dados podem estar imbuídos de preconceito.

São dois tipos clássicos de risco: o primeiro são prejuízos econômicos, como no caso do crédito, o segundo diz respeito aos ligados aos impactos sobre determinadas comunidades, como a população negra ou indígena, por exemplo.

Também existe um terceiro riscos, aqueles relacionados a sistemas automatizados, como sistemas de diagnóstico médico, armas autônomas, robôs cuidadores, vigilância biométrica e carros autônomos. Estamos falando de aplicações, ainda em desenvolvimento, cujas eventuais falhas de segurança podem ter graves consequências para a sociedade.

O que deve ser feito para mitigar esses riscos? A inteligência artificial não é algo simples. Tanto que a regulação no mundo ainda é muito incipiente, muito inicial. Temos na União Europeia uma proposta de regulamento ainda não aprovada. Temos nos Estados Unidos iniciativas mais setoriais.

É um desafio muito grande e é curioso que no Brasil esse processo se iniciou no Congresso. A comissão de juristas vem em um momento para consolidar isso.

Uma série de ferramentas que usam IA está em pleno desenvolvimento. Se a gente pensar nesses carros automatizados, por exemplo, ainda muitas dessas ferramentas estão em fase de pesquisa e não estão na sua plena utilização, então não é fácil você regular algo que está em fases iniciais de desenvolvimento.

Devemos fazer uma lei que tenha uma gradação? Atrelado ao desafio de mitigar riscos, também existe outro problema da regulação que é mitigar ou impedir a inovação. Me parece que o um dos grandes desafios é como fazer essa regulação de uma forma forte, que garanta a proteção da pessoa e da sua dignidade.

Acho que essa é a premissa central. É fundamental que busquemos uma pluralidade, uma diversidade de visões. Isso significa que todas as pessoas, áreas e setores que de alguma forma são impactados precisam ser ouvidos e precisam participar dessa regulação.

Por fim, eu colocaria também a importância de que ela seja consistente com as normas que temos. A inteligência artificial dialoga com muitas outras normas. Em primeiro lugar com a LGPD (Lei Geral de Proteção de Dados), com o Marco Civil da Internet e com a Lei de Acesso à Informação.

Qual seria o tempo ideal de discussão para o país não ficar para trás na regulação da tecnologia? Quando se fala em regulação não há receita de bolo. Quem vai ditar o ritmo será o debate público. E ela estará pronta quando conseguirmos chegar em um equilíbrio entre a proteção que a sociedade legitimamente espera e que forneça a segurança jurídica que as empresas precisam para inovar e para desenvolver novos produtos e serviços.

E como garantir inovação e que a tecnologia se adeque à realidade brasileira? A tecnologia precisa se adequar à realidade, acredito que seja um aspecto importante que não é simples de se resolver. Acima de tudo é ser muito coerente com os nossos problemas e com a nossa realidade social.

Somos uma sociedade profundamente desigual com discriminação e racismo estrutural. Temos que pensar em relação à qualidade dos dados e aos métodos estatísticos para não perpetuar essa discriminação.

Se você já tem estudos e mais estudos que demonstram esses riscos discriminatórios, para sociedade brasileira esse elemento é ainda mais relevante. E esse ponto acabou não entrando no PL 21/20.

O que ficou faltando no projeto de lei e quais pontos precisam ser revistos? Alguns pontos do PL não foram suficientemente debatidos. Ele trouxe alguns poucos princípios, mas não traz procedimentos que poderiam mitigar riscos da inteligência artificial.

A pergunta é: será que um projeto que busca regular a inteligência artificial não deveria trazer caminhos para mitigação desses riscos? O projeto diz também muito pelo que ele não traz.

Ele estabelece a responsabilidade subjetiva para todas as situações, inclusive às de alto risco. Ao estabelecer isso, daria para dizer que ele acaba afastando a aplicação da responsabilidade.

Também em relação à discriminação e à transparência ele parece mais limitar a aplicação do que especificar ou ampliar. O objetivo é regular ou desregular? Devemos trazer procedimentos e direitos, não princípios e regras muito genéricas sem aplicação concreta. A comissão vai na verdade gerar mecanismos para que o Senado, o relator Eduardo Gomes (PL-TO) e o Congresso tracem um caminho para a regulação.

Como fica o setor público e o setor privado nessa história? Qual é o modelo de incentivo para fomentar a implementação de ferramentas nos dois setores? Não tenho resposta para isso, mas acho uma questão importante, que a sociedade precisa debater. São regras gerais aplicáveis, são regras gerais semelhantes. Aplicáveis tanto ao setor público como ao setor privado ou não ou são regras distintas? Esse é um ponto relevante a ser discutido na comissão

De fato, há riscos muito próprios do setor público que me parece que merecem um olhar atento. Então se a gente pensar na investigação criminal, na segurança pública, você está com os riscos muito característicos do setor público e do processo penal como um todo, porque o risco é a a limitação e a liberdade da pessoa.

Por fim, para concluir, a regulação da inteligência artificial exige uma verdadeira inovação jurídica: precisamos de mecanismos coletivos e não somente individuais de implementação de direitos; de orientações concretas e não apenas de normas gerais; precisamos pensar em prevenção e não apenas em reparação.

Qualquer ação regulatória deve levar em conta a necessidade de adaptação aos desenvolvimentos tecnológicos do futuro, garantindo a inovação e protegendo os direitos dos indivíduos e da coletividade.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.