Reconhecimento facial na segurança pública e armas autônomas unem esquerda e direita no Senado

Alteração proposta pelo senador Marcos Pontes é elogiada por petista Fabiano Contarato; há 224 projetos de vigilância com IA no país, mapeia projeto

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo

Comissão temporária do Senado propôs novos usos de reconhecimento facial e acrescentou regulamentação de armas autônomas ao substitutivo do marco regulatório para inteligência artificial, divulgado no dia 24 do mês passado. O texto está em consulta pública até o próximo dia 22.

A inclusão dos novos pontos partiu do vice-presidente da CTIA (Comissão Temporária Interna sobre Inteligência Artificial no Brasil), o senador Marcos Pontes (PL-SP). O trecho tem apoio de parlamentares bolsonaristas e do senador Fabiano Contarato (PT-ES), único petista da comissão.

O novo texto acrescentou a autorização para usar IA para a captura de fugitivos e para o cumprimento de mandados de prisão e de medidas restritivas ordenadas pelo Judiciário.

Policial trabalha no CICC (Centro Integrado de Comando e Controle) da Polícia Militar do Rio de Janeiro, onde opera câmeras de reconhecimento facial
Policial trabalha no CICC (Centro Integrado de Comando e Controle) da Polícia Militar do Rio de Janeiro, onde opera câmeras de reconhecimento facial - Eduardo Anizelli/Folhapress

O texto proposto pelo presidente do Senado, Rodrigo Pacheco (PSD-MG), já permitia a aplicação desses sistemas em inquéritos investigativos mediante autorização judicial e na busca de vítimas de crimes e desaparecidos, mas não citava armas autônomas.

"Toda proposta de combate ao crime é, e sempre será, bem-vinda", diz Contarato em nota enviada à Folha. O uso de tecnologias de reconhecimento facial precisa ser feito com segurança tecnológica para identificação dos criminosos, sem margem para qualquer discriminação por meio dos algoritmos, de acordo com o senador capixaba.

Embora tenha apoio dos parlamentares, o uso de reconhecimento facial na segurança pública foi alvo de oposição na comissão de juristas convocada pelo Senado que propôs outro texto de marco regulatório em novembro de 2022. Pesquisadores da PUC-RS e a Coalização Direitos nas Redes pediram veto à prática.

Em março de 2022, 55 entidades da sociedade civil pediram a proibição do uso de ferramentas de reconhecimento facial na segurança pública. O documento cita que o estado baiano instalou câmeras com essa tecnologia sob justificativa de combate à criminalidade ainda em 2018, durante o governo de Rui Costa (PT), atual ministro da Casa Civil.

Hoje, há 225 projetos que utilizam técnicas de reconhecimento facial implementados por estados e municípios no país, segundo levantamento do projeto O Panóptico atualizado na última sexta (10). São 74 milhões de pessoas potencialmente vigiadas —36% da população brasileira—, segundo a metodologia do estudo, que soma a população das cidades onde há câmeras inteligentes instaladas.

"Sem as exigência adequadas para que a tecnologia seja o menos invasiva possível, sendo necessárias diversas balizas, só há a legitimação desse cenário caótico que a gente está vendo hoje na segurança pública", diz o coordenador do Panóptico, Pablo Nunes.

Outro argumento contrário é o racismo algorítmico, viés de imprecisão contra pessoas negras presente em tecnologias de inteligência artificial devido à prevalência de brancos em bancos de imagens disponíveis.

Estudo de 2019, da Rede de Observatórios da Segurança mostrou que 90,5% das pessoas presas porque foram flagradas pelas câmeras eram negras. A Bahia liderava em número de abordagens e prisões baseadas na tecnologia.

Em consulta pública, a Polícia Federal argumentou a favor da tecnologia, desde que haja um humano responsável pela decisão final de usar a força. A maior empresa de IA do mundo, a Microsoft, também se manifestou nesse sentido, o que está em linha com o texto proposto pela CTIA.

Empresas do setor dizem que a adoção de sistemas de identificação biométrica aliada à supervisão de profissionais certificados em reconhecimento maximizam a precisão na identificação de suspeitos. A afirmação é corroborada por estudo publicado na revista Nature, que avaliou o uso da tecnologia em 14 países da Europa, África, Oriente Médio e Oceania.

Na proposta de regulação aprovada na Europa, os parlamentares preveem a implementação da tecnologia para prevenção de atentados, busca de desaparecidos e cumprimento de mandado judicial. Alterado no fim do ano passado, o texto original vetava esse uso da tecnologia.

Associações representativas do setor privado como Abes (Associação Brasileira das Empresas de Software), Camara e.net, Febraban e CNI são a favor da autorregulação por parte das empresas no que toca à inteligência artificial.

"Um regramento principiológico associado ao conjunto normativo já existente no Brasil é o caminho para impulsionar o desenvolvimento da IA de forma segura nas mais variadas vertentes no Brasil", afirma a Abes.

A Abranet (Associação Brasileira de Internet) diz que a inserção do tema do reconhecimento facial em locais públicos para finalidades ligadas à área de segurança pública supre uma lacuna deixada pela Lei Geral de Proteção de Dados (LGPD), que não versa sobre assuntos penais.

ARMAS AUTÔNOMAS

As armas autônomas, mais lembradas e criticadas pelo emprego em cenários de guerra, já foram propostas para o combate ao crime no Rio de Janeiro, pelo então candidato ao governo do estado Wilson Witzel. Ele disse, durante a campanha de 2018, que iria a Israel comprar drones capazes de atirar.

O texto proposto pela CTIA permite o uso de armas autônomas desde que haja "controle humano significativo" e respeitem o Direito Internacional Humanitário, responsável por ditar regras durante conflitos.

Segundo o texto, o controlador da arma autônoma deve poder:

  • estabelecer limites de tempo e espaço para operação do equipamento;
  • assegurar confiabilidade na identificação de alvos;
  • impedir alterações no sistemas sem validação humana;
  • desativar funções quando necessário.

Os projetos de armas autônomas deverão passar por avaliação técnica e jurídica.

"Ao abrir a possibilidade de inclusão desse tipo de tecnologia no Brasil, temos o pior dos dois mundos: uma tecnologia que já é enviesada e tem produzido diversos casos de erros gravíssimos como o reconhecimento facial, aliado com esse poderio bélico que marca esses drones que têm fuzis embarcados", diz Nunes, do Panoptico.

Para a Abranet, que representa empresas de tecnologia, a inserção das armas autônomas no PL de IA parece ter se dado de forma apressada, criando um jabuti dentro do PL. "Há definições, condições e demais especificidades embarcadas em parágrafos ao final do artigo sobre sistemas de IA que representam ‘risco excessivo’."

O relator do projeto, o senador Eduardo Gomes (PL-TO), disse à Folha que o projeto está aberto para contribuições da sociedade até o próximo dia 22. "Temos COP e G20 no Brasil neste ano e ter definições sobre inteligência artificial é uma prioridade; quem não enfrentar o risco de enfrentar o problema vai comprar o risco de ser controlado pelos outros."

O colunista da Folha e cientista-chefe do ITS-Rio, Ronaldo Lemos, disse que limitar a consulta pública a três semanas prejudica o debate. "O texto precisa ser objeto de consulta pública ampla e transparente por um prazo de três meses."

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.