Descrição de chapéu Brics

Inteligência artificial aumenta risco de guerra nuclear, diz estudo

Tecnologia pode tanto eliminar erro humano quanto afetar o equilíbrio entre os países

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo

​Ferramentas de inteligência artificial (IA) aumentam o risco de uma guerra nuclear e sua aplicação na indústria bélica pode deixar o mundo à beira da destruição.

A conclusão é de um relatório recente do centro de estudos americano Rand Corp.

O trabalho contempla usos militares de tecnologias de “machine learning” (aprendizado de máquinas) que também inspiram gigantes civis —em 2016, Google, Amazon, Microsoft e Apple investiram US$ 30 bilhões em pesquisas, diz a consultoria McKinsey.

Estão destacados os possíveis ganhos, como a maior precisão das armas e o potencial de mitigar erros humanos.

O potencial destrutivo, contudo, sobressai. Segundo o estudo, atribuir a sistemas de IA o controle sobre armas nucleares pode ser o primeiro passo para a extinção humana.

Nos meios militares, já há sistemas cujas redes imitam o cérebro humano e dispositivos capazes de aprender a andar, combater incêndios, evitar radares e tomar decisões a partir de algoritmos.

“Não é mais um cenário de filmes”, diz Andrew Lohn, coautor do estudo e especialista em IA para fins pacíficos, como identificar sons de baleias e prever placares de jogos de basquete.

Elon Musk, o bilionário que planeja colonizar Marte, concorda. Em março, o fundador da Tesla disse que os avanços em IA são a mais provável causa de uma 3ª Guerra Mundial.

“Eu estou muito perto da vanguarda em IA e ela me assusta pra cacete.”

Musk citou a tecnologia AlphaGo Zero, que aprendeu sozinha o jogo chinês de estratégia Go. Após três dias de “estudo”, a máquina derrotou o campeão mundial por 100 a 0.

As potências mundiais parecem concordar com ele.

Vladimir Putin, presidente da Rússia, já disse que essa corrida tecnológica vai decidir a liderança do mundo.

Entre outros projetos, seu governo planeja um submarino que, caso o país seja atacado, atravessa oceanos com uma ogiva para revidar.

Já a China, que ambiciona ser a líder mundial em IA até 2030, desenvolveu um algoritmo que pode ativar rede de drones militares, à semelhança dos enxames de abelhas.

Os EUA testam barcos autônomos que rastreiam e atacam submarinos a milhares de km. E, segundo os russos, já usam na Síria drones com mísseis capazes de rever curso e alvos sem ação humana.

'DEDOS NERVOSOS'

Como Musk, da Tesla, o relatório da Rand Corp conclama um “diálogo internacional urgente”.

Mas na quarta revolução industrial, um consenso não depende só de governantes, ponderam entidades como a Unoda (escritório da ONU para o desarmamento) e a Federação de Cientistas Americanos.

Como esses processos vêm sendo conduzidos em grande parte pelo setor privado, o debate terá de incluir acionistas.

Embora considerem inovações científicas benéficas, especialistas veem com preocupação o desenvolvimento delas com motivações militares.

A ideia é fixar regras e evitar riscos à dissuasão nuclear.

Esse equilíbrio tem um preceito simples: a garantia de retaliação imediata, com destruições de metrópoles, danos perenes sobre o meio ambiente e milhões de mortes.

A indisposição em correr esses riscos impediu que a disputa entre EUA e União Soviética evoluísse para um confronto durante a Guerra Fria.

Tecnologias inteligentes, porém, podem convencer o adversário de que está vulnerável. Isso fomentaria nova busca por igualdade e colocaria em dúvida o poder de reação, ampliando a predisposição a atacar.

“Sistemas autônomos não precisam nem matar para tornar uma catástrofe mais provável”, diz Edward Geist, pesquisador da Rand Corp, especialista em segurança nuclear e um dos autores do estudo.

Para ele, o emprego militar de IA “pode fazer líderes pensarem que vão ser derrotados caso hesitem, tornando os dedos mais nervosos ao gatilho”.

Disposição, medo e dissuasão são conceitos e sentimentos humanos, e sobram exemplos em que ações de pessoas foram decisivas para corrigir diagnósticos de máquinas.

Foi assim com o soviético Stanislav Petrov (1939-2017) em 26 de setembro de 1983.

O então tenente-coronel era o responsável por uma estação de rastreamento nos arredores de Moscou quando radares, alertas e sirenes denunciaram cinco mísseis partindo dos EUA em direção ao país.

À época, a União Soviética estava convicta de que seria atacada de surpresa pelos americanos, então sob o governo do republicano Ronald Reagan (1911-2004), cuja retórica incluía referir-se ao país como “império do mal”.

O russo, porém, estranhou que o inimigo tivesse escolhido iniciar o apocalipse com apenas cinco mísseis. 

O protocolo previa ordenar imediatamente um ataque nuclear de retaliação, mas ele registrou alarme falso.

Petrov tinha razão: as máquinas haviam confundido com rastros de mísseis o que na verdade eram raios de sol refletidos por topos de nuvens.

 

Inteligência artificial em arsenais

REALIDADE

Mísseis ‘inteligentes’ Os EUA podem ter testado na Síria mísseis que reveem sozinhos a trajetória e o alvo; China, Coreia do Sul e Rússia estudam a tecnologia

Robô-bombeiro Os EUA testam um robô-bombeiro que se move, interage com humanos e toma decisões sob altas temperaturas

Tanque que pensa EUA e Rússia têm tanques de guerra pré-programáveis, capazes de acessar zonas de conflito e destruir alvos; EUA acusam rivais de testar aparato na Síria

NO PAPEL

Enxame de drones A China cria sistema inspirado nas abelhas que ativa drones com mísseis em altitudes elevadas

Simulador de guerras EUA projetam simuladores capazes de encenar em detalhes batalhas e ataques nucleares

Barcos autônomos EUA testam barcos que rastreiam e atacam sozinhos submarinos a milhares de km de distância

Revide A Rússia projeta um submarino que, em caso de ataque nuclear ao país, cruza oceanos com uma ogiva para o revide automático

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.