Políticas e Justiça

Editado por Michael França, escrito por acadêmicos, gestores e formadores de opinião

Políticas e Justiça - Michael França
Michael França
Descrição de chapéu Vida Pública tecnologia

Armas autônomas no PL de IA colocam o país na contramão dos direitos humanos

Não parece razoável, por estratégia política, autorizar o uso de tecnologias falhas em detrimento de vidas, muitas das quais, negras e periféricas

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

André Lucas Fernandes

É advogado e doutorando em direito, com foco em inteligência artificial e conceitos jurídicos

Paula Guedes

É advogada, doutoranda em direito com foco em regulação de inteligência artificial no Brasil e membro do Núcleo Legalite da PUC-RJ

Tarcizio Silva

É senior tech policy fellow na Fundação Mozilla e autor de “Racismo algorítmico: inteligência artificial e discriminação nas redes digitais”

A comissão temporária sobre inteligência artificial no Senado lançou um texto preliminar substitutivo (TPS) ao projeto de Lei 2338/23, que busca regular a matéria no país. Um dos retrocessos foi a inclusão do uso de Sistemas de Armas Autônomas (SAA).

Esta disposição, apesar de inicialmente trazer a vedação destes sistemas, limita esta proibição apenas nos casos em que não há controle humano significativo e quando os efeitos forem "imprevisíveis ou discriminados" ou quando o uso implicar em violações do Direito Internacional Humanitário (DIH), o que abre muitas brechas para a violação de direitos.

O termo "SAA" abrange qualquer tipo de sistema de armas com autonomia em suas funções críticas, a partir de uma combinação entre sensores, algoritmos e software, que podem aprender ou adaptar seu funcionamento em resposta às mudanças nas circunstâncias. Ou seja, quando postas em ação podem selecionar, encontrar e atacar alvos sem intervenção humana significativa.

A imagem apresenta três pessoas em um formato de retrato. À esquerda, um homem com barba e óculos, vestindo um terno e gravata, sorrindo. No centro, uma mulher com cabelo longo e liso, sorrindo suavemente, usando uma blusa clara. À direita, um homem com cabelo crespo e barba, usando óculos e uma camisa estampada. O fundo é desfocado, destacando os rostos.
André Lucas Fernandes é advogado e doutorando em direito, com foco em inteligência artificial e conceitos jurídicos; Paula Guedes é advogada, doutoranda em direito com foco em regulação de inteligência artificial no Brasil e membro do Núcleo Legalite da PUC-RJ; Tarcizio Silva é senior tech policy fellow na Fundação Mozilla e autor de 'Racismo algorítmico: inteligência artificial e discriminação nas redes digitais' - Divulgação

Relatórios de entidades de defesa de direitos humanos diagnosticaram que armas autônomas não seriam capazes de adequar-se aos princípios de DIH, uma vez que sua aplicação pode ser complexa, subjetiva e variável de acordo com o caso e as circunstâncias do momento, especialmente em conflitos dinâmicos.

Assim, elas não seriam aptas a determinar alvos legítimos, sendo necessária a interpretação do comportamento humano e suas intenções, o que é particularmente difícil de ser inserido dentro de um código de programação, podendo, inclusive, ocasionar a morte acidental da população civil em razão da má interpretação de dados.

Questões foram levantadas na literatura especializada que denunciam um cenário de incerteza e insegurança. Afinal, quem seria responsável por uma ação errada de um robô do tipo: o agente que ordenou, o Estado proprietário, o industrial produtor da tecnologia, ou os programadores?

Tecnicamente, argumenta-se que tais aparatos podem ser programados para uma intervenção humana mais eficiente (human in the loop), mas o uso deste arsenal em ambientes não controlados, como em guerra, têm comprovado o aumento dos casos de erros e efeitos negativos que atingem todo o entorno dos locais em que estas armas atuam.

O elemento humano se torna completamente precário, se pensarmos no contexto brasileiro de desabastecimento, falta de treinamento e fortalecimento do controle Estatal sobre as polícias.

Diante do potencial danoso dos SAA, em razão das dúvidas quanto à possibilidade de cumprimento das regras de Direito Internacional Humanitário e de Direitos Humanos, os pedidos de sua proibição prévia se multiplicam.

No final de 2023, 152 estados votaram na Assembleia Geral da ONU a favor da primeira resolução sobre os perigos das armas autônomas, o que foi reafirmado em abril de 2024 em nova resolução firmada na 148ª Assembleia Geral da União Interparlamentar em Genebra.

Para o contexto brasileiro, a dimensão internacional se torna secundária pelo clima de adoção e incorporação de tecnologias usadas em conflitos bélicos em cenários de "guerra interna". Coloca-se o aparato letal contra o próprio cidadão, num exercício de internalização de uma necropolítica, em que a violência policial contra negros se torna política de Estado.

Em episódios recentes, representantes eleitos defenderam o uso de drones para disparos em ações policiais de segurança no Rio de Janeiro, inclusive com viagem para Israel para estudar possibilidade de compra destas tecnologias, que poderiam também dispor de reconhecimento facial.

Não parece razoável, por estratégia política, autorizar o uso de tecnologias falhas em detrimento de vidas, muitas das quais, negras e periféricas. Para além dos claros usos ilegítimos de tecnologias de vigilância atualmente no país, olhando para o reprovável exemplo de Israel, não há uma maneira ética ou mecanismos de prevenção e mitigação suficientes para justificar o uso desses sistemas.

O editor, Michael França, pede para que cada participante do espaço "Políticas e Justiça" da Folha sugira uma música aos leitores. Nesse texto, a escolhida por André Fernandes, Paula Guedes e Tarcizio Silva foi "Bullet in the Head Song", de Rage Against the Machine.

LINK PRESENTE: Gostou deste texto? Assinante pode liberar sete acessos gratuitos de qualquer link por dia. Basta clicar no F azul abaixo.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.