Descrição de chapéu
Financial Times tecnologia

Países travam corrida armamentista da Inteligência Artificial sob sombra de autocratas

Debate ficou mais urgente com a Guerra da Ucrânia; tecnologia defende democracia em sociedades abertas

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

John Thornhill
Financial Times

O mundo teria sido um lugar muito mais sombrio se a Alemanha nazista tivesse superado os Estados Unidos na construção da primeira bomba atômica do mundo. Felizmente, o ódio autodestrutivo do regime de Adolf Hitler sabotou seus próprios esforços. Uma lei de 1933 demitiu "funcionários públicos de ascendência não ariana", removendo um quarto dos físicos alemães de seus cargos universitários.

Como observou o historiador Richard Rhodes, 11 desses 1.600 estudiosos já tinham ganhado o Prêmio Nobel ou o ganhariam mais tarde. Cientistas refugiados da Europa nazista tiveram mais tarde um papel central no projeto Manhattan da bomba atômica nos EUA.

Desenvolvedora posa em frente a texto gerado por inteligência artificial, durante o festival artístico de Avignon, na França - Clement Mahoudeau - 14.jul.22/AFP

O angustiante exame de consciência dos cientistas sobre a construção de armas nucleares ressoa intensamente hoje, quando pesquisadores desenvolvem sistemas de inteligência artificial (IA) cada vez mais adotados pelos militares. Entusiasmados com os usos pacíficos da IA, os pesquisadores sabem que é uma tecnologia de uso geral e duplo, que pode ter aplicações altamente destrutivas.

A coalizão Stop Killer Robots (parem os robôs assassinos), com mais de 180 organizações não governamentais de 66 países, está fazendo campanha para proibir os chamados sistemas de armas autônomas letais, alimentados por IA.

A Guerra da Ucrânia aumentou a urgência do debate. No início deste mês, a Rússia anunciou que havia criado um departamento especial para desenvolver armas habilitadas para IA. Acrescentou que sua experiência na Ucrânia ajudaria a torná-las "mais eficientes e inteligentes". As forças russas já implantaram o robô autônomo de limpeza de minas Uran-6, bem como o drone suicida não tripulado KUB-BLA, que, segundo seu fabricante, usa IA para identificar alvos (isso é contestado por especialistas).

O presidente Vladimir Putin falou sobre as "oportunidades colossais" da IA: "Quem se tornar o líder nessa esfera será o governante do mundo". No entanto, os esforços do Kremlin para desenvolver armas habilitadas para IA certamente serão prejudicados pelo recente êxodo de 300 mil russos, muitos do setor de tecnologia, e pelo fraco desempenho de suas forças convencionais.

A iniciativa russa se seguiu ao anúncio do Pentágono no ano passado de que estava intensificando esforços para alcançar a superioridade no setor. O Departamento de Defesa dos EUA estava "trabalhando para criar uma vantagem militar competitiva ao adotar e alavancar a IA", disse Kathleen Hicks, vice-secretária de Defesa. A China também está desenvolvendo a tecnologia para usos econômicos e militares, com o claro objetivo de ultrapassar os EUA, no que foi chamado de corrida armamentista da IA.

Embora grande parte do debate sobre o uso de armas nucleares tenha sido relativamente claro e limitado por décadas, embora aterrorizante, a discussão sobre IA é muito mais confusa e caleidoscópica. Até o momento, só nove Estados desenvolveram armas nucleares; apenas duas bombas atômicas já foram usadas na guerra moderna —em Hiroshima e Nagasaki, em 1945. Seu terrível poder destrutivo as tornou armas de último recurso.

A IA, por outro lado, é menos visível, mais difusa e mais imprevisível porque tem uma barreira inicial mais baixa para utilização, como escreveu o estrategista veterano Henry Kissinger. Talvez seja mais bem visto como um multiplicador de força que pode ser usado para aprimorar as capacidades de drones, armas cibernéticas, baterias antiaéreas ou tropas em combate.

Alguns estrategistas temem que as democracias ocidentais possam estar em desvantagem contra os regimes autoritários por terem mais restrições éticas. Em 2018, mais de 3.000 funcionários do Google assinaram uma carta dizendo que a empresa "não deveria estar no negócio da guerra" e pedindo (com sucesso) sua retirada do Projeto Maven do Pentágono, criado para aplicar IA à guerra.

O Pentágono agora enfatiza a importância de desenvolver sistemas responsáveis, governados por valores, controles e leis democráticos. A Guerra da Ucrânia também pode estar influenciando a opinião pública, especialmente na Europa. "Os jovens se preocupam com as mudanças climáticas. E agora se preocupam em viver em sociedades abertas", diz Torsten Reil, cofundador da Helsing, startup alemã que usa IA para integrar dados bélicos. "Se queremos viver em uma sociedade aberta, temos que ser capazes de dissuadir e defender, e fazer isso com credibilidade."

Para alguns, pode soar como um "rebranding" hipócrita da indústria da morte. Mas, como os físicos aprenderam durante a Segunda Guerra, é difícil ser moralmente puro quando é necessário fazer escolhas terríveis no mundo real. Para seu grande crédito, muitos pesquisadores de IA estão pressionando hoje por convenções internacionais significativas para restringir os robôs assassinos incontroláveis. Mas seria perigoso abandonar o uso responsável da tecnologia de IA na defesa das sociedades democráticas.

Tradução de  Luiz Roberto M. Gonçalves

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.