Inteligência artificial precisa ser regulada porque já causa danos, diz ministro do STJ

Para Ricardo Cueva, discriminação gerada pelos algoritmos é um dos maiores problemas

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo

O ministro Ricardo Villas Bôas Cueva, do STJ (Superior Tribunal de Justiça), mede o impacto do ChatGPT pela mudança de atitude das pessoas no debate sobre regulação da IA (inteligência artificial).

No começo do ano passado, quando assumiu a presidência de uma comissão responsável por sugerir um projeto de lei para tratar do tema, tudo parecia pertencer a um futuro distante.

"Esse tipo de argumento quase que desapareceu quando surgiu o ChatGPT", diz o ministro. "A conversa no mundo inteiro passou a ser até um clamor pela regulação. É importante aproveitar esse momento."

Ele afirma que a inteligência artificial já causa danos às pessoas e oferece riscos muito grandes, daí a necessidade urgente de regulá-la —mas sem criar amarras que impeçam a inovação tecnológica. Cueva aponta a discriminação como um dos maiores problemas dos algoritmos.

A comissão entregou seu relatório no fim do ano passado. Aproveitando o material, Rodrigo Pacheco (PSD-MG), presidente do Senado, propôs o projeto de lei 2.338/23 em maio.


RICARDO VILLAS BÔAS CUEVA, 61

Ministro do STJ, foi presidente da comissão responsável por subsidiar a elaboração de um substitutivo sobre inteligência artificial no Brasil. Formado em direito pela USP, é mestre pela Universidade Harvard (EUA) e doutor pela Universidade Johann Wolfgang Goethe (Alemanha).

Retrato de homem branco de óculos e terno, gesticulando com a mão direita enquanto fala
O ministro Ricardo Villas Bôas Cueva (STJ), em entrevista na sede da Folha - Danilo Verpa/Folhapress

Por que é preciso regular a inteligência artificial?
Porque ela está presente nas nossas vidas. Na contratação de serviços, na obtenção de benefícios, na busca de emprego, ao obter um seguro ou um empréstimo, no reconhecimento facial.

E ela já causa danos e oferece riscos muito grandes. Por exemplo, tem o viés discriminatório que os algoritmos desenvolvem dependendo da base de dados que é usada. No reconhecimento facial, isso é comum. As bases de dados não são suficientemente amplas para contemplar todas as etnias e tipos físicos. Isso gera erros graves que levam a prisões injustas ou até mortes.

Ou então nas contratações. Grandes empresas analisam currículos por meio da inteligência artificial. Mas, pelo fato de as mulheres, no passado, não terem tido tantas oportunidades, elas acabam sendo consideradas num padrão inferior. É um viés que se cria pela repetição de padrões e que tem de ser combatido.

Pelo que a gente viu nas audiências públicas, por sermos um país muito desigual, com um racismo estrutural muito arraigado, o medo é que a inteligência artificial cristalize ainda mais essas estruturas antigas. Que dificulte a mudança social e reforce os vieses discriminatórios, dificulte a ascensão social por questões de gênero, raça, convicções etc.

Como a regulação vai atacar esses problemas?
Ela cria um rol de direitos básicos dos afetados pela inteligência artificial. Com esses direitos, as pessoas poderiam reclamar perante as autoridades competentes e/ou perante o Judiciário. Isso pode criar uma nova leva de demandas, pode haver uma hiperjudicialização, mas talvez seja o preço a pagar.

A ideia é que haja transparência, explicabilidade, inteligibilidade e auditabilidade do algoritmo. Ou seja, a pessoa tem o direito de saber que está sendo tratada por um algoritmo, tem direito a uma explicação sobre como funciona esse algoritmo, tem direito de auditabilidade.

Tem também o direito de exigir requisitos mínimos de segurança, que a inteligência artificial seja capaz de voltar a operar caso o funcionamento seja interrompido –por exemplo, um veículo autônomo não pode parar no meio da estrada.

Também temos que garantir que haja um direito a participação humana na decisão, a uma revisão de uma decisão automatizada.

Qual tem sido o padrão internacional de regulação?
Há duas abordagens. Uma possibilidade é a regulação setorial. O reconhecimento facial teria uma regulação própria, os veículos autônomos outra, os diagnósticos médicos outra etc. É mais ou menos como os Estados Unidos têm feito.

E tem o caminho da União Europeia, que procura uma regulação mais horizontal, que seja genérica e abarque todos os setores. E cada setor cria normas específicas mais densas. A ideia dessa regulação ao modo europeu é já ter de antemão uma regulação leve com alguns parâmetros de controle do algoritmo.

A sugestão é que o Brasil siga qual caminho?
A nossa inspiração maior foi a União Europeia. Mas, de certo modo, o modelo adotado é um pouco híbrido. A gente também se inspirou na visão americana, que atribui o principal papel de controle para as regulações setoriais.

E criar uma normatização que seja flexível, que possa se desenvolver com o tempo, em paralelo com as tecnologias novas. Sem impedir o desenvolvimento de uma nova técnica, sem gerar obstáculos à inovação e sem criar ônus excessivo para uma empresa nova. A regulação não pode barrar a entrada de novos concorrentes.

Como a legislação pode lidar com a responsabilidade penal e civil da inteligência artificial? Por exemplo, se um veículo autônomo provoca um acidente, se um diagnóstico médico é mal feito, se existe discriminação.
A questão do nexo de causalidade é complexa na inteligência artificial, porque o nível de interação com o ser humano varia muito.

O projeto de lei da Câmara, que atendia aos reclamos da indústria, procurava usar uma modalidade de responsabilidade totalmente subjetiva. Ou seja, o ônus da prova ficaria inteiramente com quem sofreu o dano, o que é muito oneroso e contraria o nosso ordenamento jurídico.

O que se procurou fazer na comissão foi criar uma classificação de riscos. No âmbito civil, para as aplicações de alto risco, responsabilidade objetiva [não é preciso provar culpa]. Para as aplicações de menor risco, é possível alegar fatos que eximam de responsabilidades o produtor ou o operador de inteligência artificial.

Na área penal, o Código Penal vai ter que resolver.

A comissão chegou a tratar dos cenários apocalípticos que alguns especialistas têm alardeado?
Esse discurso começou a aparecer agora, depois do ChatGPT. Nós começamos a trabalhar em abril de 2022. Naquela época, tudo era visto com muito ceticismo. A questão era por que regular, como regular uma coisa que ainda não existe e não se sabe para onde vai.

Esse tipo de argumento quase que desapareceu quando surgiu o ChatGPT e outros modelos de linguagem ampliada. A conversa no mundo inteiro passou a ser até um clamor pela regulação. É importante aproveitar esse momento para criar logo uma normatização de caráter geral, que que seja capaz de prevenir e evitar alguns dos riscos mais sérios.

Mas o que eu ouço dos especialistas é que a visão apocalíptica é hiperbólica e está longe de se realizar. Um dos princípios que regem a inteligência artificial no mundo, ou que deveriam reger, é a ideia de resiliência. Quer dizer, a inteligência artificial tem que ser segura como um carro, um avião, uma geladeira.

Como regular um objeto em transformação tão acelerada?
A ideia é não regular o produto, o serviço, a aplicação, mas seus efeitos. O que se procura fazer é classificar riscos. Alguns riscos são inaceitáveis. Por exemplo, o uso de armas de inteligência artificial deveria ser proscrito, assim como o uso de algoritmos para manipular a consciência das pessoas.

Depois, há os usos de alto risco. Por exemplo, o sistema de Justiça, o sistema de segurança, de saúde e infraestruturas críticas [como água, energia, telecomunicações] são aplicações de alto risco. Para elas, o ônus é maior: tem que fazer auditoria, análise de impacto, apresentar relatórios de conformidade.

Isso poderia ser feito de uma forma autorregulada, dependendo do setor, e cada um dos setores se encarregaria de criar padrões. E os setores deveriam se reportar a uma autoridade central, com a capacidade de supervisionar esses relatórios e aplicar sanções.

Quem seria essa autoridade?
Com base na experiência da Lei Geral de Proteção de Dados, que criava uma autoridade que foi vetada por vício de iniciativa, a gente optou por deixar que o Poder Executivo defina essa autoridade. Talvez a ANPD [Autoridade Nacional de Proteção de Dados] possa assumir esse papel.

Tem risco de contaminação política, como no PL das fake news?
Existe uma intersecção óbvia entre esses temas, mas eles não se identificam. Nas fake news, a dimensão política é muito mais evidente. Na inteligência artificial, tem algum risco de contaminação política, mas é menor.

O que existem são outras preocupações. Uma delas é que ela possa ampliar ainda mais o poder das big techs e desfuncionalizar ainda mais as democracias. Outra é a pegada ambiental da inteligência artificial, muito pesada. Tem também o impacto financeiro, que é difícil de medir.

Tudo isso não está contemplado. Falamos dos riscos mais palpáveis. A ideia é que esse arcabouço normativo geral seja flexível, leve, que tenha uma sobrevida razoável e que possa impedir os maiores riscos às pessoas: violações da privacidade, proteção de dados, discriminação.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.