Descrição de chapéu Inteligência artificial

Veja como inteligência artificial pode ser usada em guerras e o que dizem seus críticos

Puxar gatilho é decisão sutil que tecnologia é incapaz de fazer, afirma Cruz Vermelha

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo

Armas autônomas, algoritmos de tomada de decisão e geração em massa de notícias falsas são usos possíveis de inteligência artificial em conflitos armados. Parte dessas táticas já está em prática em guerras, mas os dados sobre isso são escassos, de acordo com o Comitê Internacional da Cruz Vermelha (CICV).

"Com as informações que temos, é impossível saber se as casualidades diminuem com a adoção de inteligência artificial ou se e quanto aumentam", afirma o conselheiro de políticas públicas do CICV, Neil Davison.

Ilustração feita por IA para a capa sobre cibersegurança
Potências bélicas como EUA, China, Índia e Inglaterra incluem IA no orçamento de seus ministérios de Defesa - Ilustração de Carlos Xavier

O think tank NSCAI (comissão de segurança nacional com foco em IA), ligado ao governo norte-americano, argumenta em relatórios que armas autônomas mais precisas podem reduzir o número de casualidades indesejadas.

Esses armamentos decidem alvos e momento do disparo com base em sensores e técnicas como visão computacional —técnica de inteligência artificial para identificar pessoas e objetos.

Davison afirma que, para decidir quem tem proteção, classe e contexto importam mais do que identidade. "Um militar é um alvo, mas se estiver rendido ou ferido deixa de ser. Um civil que represente riscos pode sofrer repressão."

Hoje, as proibições e limitações sobre armas autônomas, definidas por uma convenção de especialistas governamentais reunida em 2013, não obrigam os países participantes a segui-las. O CICV pressiona para que essas regras se tornem vinculantes.

Membros da Otan (Organização do Tratado do Atlântico Norte) definiram princípios éticos para uso de inteligência artificial, como legalidade, responsabilização, testagem prévia e redução de preconceitos.

Para Davison, ainda falta ordenamento jurídico específico, já que as aplicações de inteligência artificial são diversas. "É muito diferente usar reconhecimento facial para localizar soldados desaparecidos ou abatidos, do que para determinar quem está na linha de tiro. Esses modelos têm conhecida ineficiência com pessoas de peles mais escuras."

Atualmente, cerca de 90 países, incluindo o Brasil, são a favor de novas regras para a aplicação de inteligência artificial na guerra, de acordo com o conselheiro do CICV. As potências militares que disputam a prevalência tecnológica, contudo, pressionam por menos regulação.

Os riscos de usar esses armamentos sem qualquer constrangimento são graves, conforme pronunciamento da presidente do CICV, Mirjana Spoljaric, neste ano. "Devemos tolerar um mundo em que vida e morte são reduzidos a cálculos maquinais?"

VEJA ABAIXO APLICAÇÕES DE IA EM CONFLITOS E SEUS RISCOS

Armas autônomas

Sistemas automático de armamento selecionam alvos e usam força sem intervenção humana, a partir de sensores e softwares. A partir das informações do ambiente, esses sistemas reconhecem pessoas e veículos.

Um exemplo de arma autônoma já em uso são sistemas antimísseis, que disparam ao detectar riscos. Outra forma rudimentar de arma autônoma é a mina terrestre, que explode com o contato humano.

O uso de armas autônomas têm de desrespeitar as regras gerais do Direito Internacional Humanitário, que permite uso da força apenas em caso de autodefesa contra ataque armado ou sob autorização do Conselho de Segurança das Nações Unidas.

Ataques cibernéticos

Grandes modelos de linguagem como o ChatGPT e similares podem ser usados para criar notícias falsas em texto, vídeo e áudio numa escala sem precedentes. Como diz o clichê, na guerra, a verdade é a primeira vítima.

O CICV expressa preocupação com a possibilidade de civis, por causa de desinformação, serem detidos injustamente ou sujeitos a maus-tratos, descriminação ou tenham acesso vetado a serviços essenciais.

Tomada de decisões

Sistemas de inteligência artificial são capazes analisar grandes quantidades de dados em tempo menor do que humanos seriam capazes e fornecer diretrizes e índices para acelerar decisões. Um exemplo disso, é o chatbot Donovan, da Scale.AI, vendido como um assistente para militares norte-americanos.

O risco nesse caso, segundo Davison, é eximir a responsabilidade dos atores envolvidos no conflito. "O comando pelo disparo vem da máquina ou do oficial?", questiona. Ele lembra, entretanto, que os países são sempre responsabilizados ao adotarem sistemas autônomos.

Espionagem

Nações usam drones e satélites equipados com recursos de visão computacional para levantar informações de outros países e grupos armados. Esses equipamentos podem representar riscos à privacidade e estão sujeitos a erros por vieses dos programas de IA.

Tradução de documentos

IAs também têm capacidade de traduzir documentos em diversos idiomas, o que pode conferir vantagem competitiva na disputa por informação.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.