Descrição de chapéu
José Renato Laranjeira de Pereira e Thiago Guimarães Moraes

Os riscos da inteligência artificial

Projeto que tramita no Senado pode aprofundá-los

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

José Renato Laranjeira de Pereira

Fundador do Laboratório de Políticas Públicas e Internet (Lapin), é pesquisador no centro de pesquisa iRights.Lab (Alemanha) e mestre em direito regulatório (UnB)

Thiago Guimarães Moraes

Conselheiro do Lapin e encarregado de Proteção de Dados na Autoridade Nacional de Proteção de Dados (ANPD)

Você sai para trabalhar e, ao descer do ônibus, dois policiais te abordam pedindo o RG. Eles dizem que seu rosto foi identificado por um sistema de inteligência artificial (IA) para reconhecimento facial como o de uma pessoa foragida. Ao abrir a bolsa, você percebe que esqueceu a carteira em casa. Sem ter como se identificar, é só na delegacia, horas depois, que os policiais reconhecem que houve um erro do sistema.

Essa mesma história já aconteceu no Brasil e em diversos outros países. Ela reflete os riscos que a IA traz para direitos fundamentais por conta de falhas técnicas e de vieses discriminatórios incutidos em seu funcionamento, muitas vezes de forma involuntária.

Por conta desse potencial negativo, muitos países têm buscado regular as inúmeras tecnologias que existem sob o guarda-chuva da IA.

A União Europeia, por exemplo, debate um complexo regulamento fruto do trabalho de dois anos de um grupo multissetorial de especialistas, que prevê uma abordagem regulatória baseada em risco e proibições ao uso da tecnologia em certos contextos. A China também tem avançado com leis importantes, regulando deepfakes (imagens e vídeos que não alteram apenas cenários e vozes, mas rostos e corpos de pessoas por meio de inteligência artificial) e algoritmos de recomendação.

Entretanto, um projeto de lei já aprovado na Câmara dos Deputados em regime de urgência e que deve ser debatido no Senado em breve tem uma abordagem preocupante.

Embora pareça mais uma carta de intenções do que a regulação de tema tão complexo, o PL 21/2020 possui disposições excessivamente genéricas e seus dez artigos podem fragilizar gravemente normas e direitos já existentes nas esferas de responsabilidade civil, defesa do consumidor e proteção de dados, conforme diversas entidades já manifestaram.

Primeiramente, o projeto limita os princípios de não discriminação e transparência da Lei Geral de Proteção de Dados (LGPD). Para além disso, talvez sua disposição mais alarmante seja seu art. 6º, VI, que determina que futuras normas sobre a responsabilidade civil de agentes envolvidos no desenvolvimento e operação de sistemas de inteligência artificial deverão se pautar na responsabilidade subjetiva.

Isso significa que qualquer indivíduo que sofrer danos por um sistema de IA e buscar reparação terá que provar que houve erro causado por culpa ou negligência em seu desenvolvimento ou uso.

Na prática, em muitos casos isso envolveria exames de bases de dados e de acurácia do sistema por auditorias especializadas, o que encareceria e potencialmente inviabilizaria a compensação do dano.

Isso vai contra o regime de responsabilidade civil brasileiro, que visa a efetiva reparação da pessoa ao considerar desproporcional, em casos previstos em lei ou em atividades que impliquem alto risco a direitos, a necessidade de provar que houve intenção ou negligência do desenvolvedor ou operador da IA que causou danos.

Vale mencionar que a IA torna esse tipo de comprovação ainda mais complexo, dado que é programada para constantemente "aprender" a partir do processamento de novos dados. Com isso, está em constante transformação, o que dificulta o mapeamento das causas para suas falhas.

Basta lembrar o caso do robô desenvolvido pela Microsoft que, ao ser utilizado no Twitter para desenvolver capacidades de compreensão de linguagem, em menos de 24h começou a publicar postagens racistas com base no conteúdo a que teve acesso na rede social.

Para evitar esses problemas, é necessário um debate aprofundado sobre o tema, com a participação de especialistas e grupos que são mais afetados por essas tecnologias. Caso contrário, o Brasil corre o risco de se tornar um parque de diversões para agentes irresponsáveis que atentam contra direitos com seus sistemas de IA, sem qualquer ameaça de responsabilização significativa pelas falhas de suas máquinas.

* Este artigo não reflete necessariamente o posicionamento das instituições que os autores representam

TENDÊNCIAS / DEBATES
Os artigos publicados com assinatura não traduzem a opinião do jornal. Sua publicação obedece ao propósito de estimular o debate dos problemas brasileiros e mundiais e de refletir as diversas tendências do pensamento contemporâneo.​

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.