Descrição de chapéu The New York Times

Cientistas pioneiros da IA pedem proteções contra possíveis 'riscos catastróficos' no futuro

Pesquisadores alertam em carta conjunta que IA pode superar capacidades de seus criadores e 'perda de controle humano' preocupa

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Meaghan Tobin
The New York Times

Cientistas pioneiros que encabeçaram o desenvolvimento de IA (inteligência artificial) estão alertando que os países devem criar um sistema global de supervisão para verificar os riscos potencialmente graves representados pela tecnologia em rápido desenvolvimento.

O lançamento do ChatGPT e uma série de serviços semelhantes que podem criar textos e imagens sob comando mostraram como a IA está avançando de maneiras poderosas. A corrida para comercializar a tecnologia rapidamente a trouxe das margens da ciência para smartphones, carros e salas de aula, e governos de Washington a Pequim foram forçados a descobrir como regulá-la e aproveitá-la.

Um homem está sentado em frente a um computador em um laboratório de eletrônica, operando um osciloscópio. O osciloscópio exibe um gráfico de ondas senoidais. O ambiente é equipado com diversos dispositivos eletrônicos e cabos. O homem usa óculos e uma camisa com detalhes em vermelho e azul.
Designer realizando testes em um processador de IA da Amazon - Sergio Flores - 9.jul.2024/Reuters

Em uma declaração na segunda-feira (16), um grupo de influentes cientistas de IA expressou preocupações de que a tecnologia que ajudaram a construir pode causar sérios danos. Eles alertaram que, em questão de anos, a IA pode superar as capacidades de seus criadores e que "a perda de controle humano ou o uso malicioso desses sistemas poderia levar a resultados catastróficos para toda a humanidade."

Se os sistemas de IA em qualquer lugar do mundo desenvolvessem essas habilidades hoje, não há um plano para contê-los, disse Gillian Hadfield, estudiosa do direito e professora de ciência da computação e governo na Universidade Johns Hopkins.

"Se tivéssemos algum tipo de catástrofe daqui a seis meses, se detectássemos que há modelos que estão começando a se autoaperfeiçoar autonomamente, quem você vai chamar?", perguntou Hadfield.

De 5 a 8 de setembro, ela e outros cientistas de todo o mundo estiveram em Veneza para discutir tal plano na terceira reunião dos Diálogos Internacionais sobre Segurança de IA, organizada pelo Fórum de IA Segura, projeto de um grupo de pesquisa sem fins lucrativos nos Estados Unidos chamado Far.AI.

Os governos precisam saber o que está acontecendo nos laboratórios de pesquisa e nas empresas que trabalham em sistemas de IA em seus países, disse o grupo na declaração. E eles precisam de uma maneira de comunicar sobre riscos potenciais que não exija que empresas ou pesquisadores compartilhem informações proprietárias com concorrentes.

O grupo propôs que os países criem autoridades de segurança de IA para registrar os sistemas dentro de suas fronteiras. Essas autoridades então trabalhariam juntas para concordar com um conjunto de linhas vermelhas e sinais de alerta, como se um sistema de IA pudesse se copiar ou enganar intencionalmente seus criadores. Tudo isso seria coordenado por um órgão internacional.

Cientistas dos EUA, China, Grã-Bretanha, Cingapura, Canadá e outros lugares assinaram a declaração.

Entre os signatários estão Yoshua Bengio, cujo trabalho é tão frequentemente citado que ele é chamado de um dos padrinhos do campo; Andrew Yao, cujo curso na Universidade Tsinghua em Pequim formou os fundadores de muitas das principais empresas de tecnologia da China e Geoffrey Hinton, cientista pioneiro que passou uma década no Google.

Os três são vencedores do Prêmio Turing —o Nobel de computação.

O grupo também incluiu cientistas de várias das principais instituições de pesquisa de IA da China, algumas das quais são financiadas pelo Estado e aconselham o governo. Alguns ex-funcionários do governo se juntaram, incluindo Fu Ying, que trabalhou no ministério das Relações Exteriores da China e diplomata, e Mary Robinson, ex-presidente da Irlanda. No início deste ano, o grupo se reuniu em Pequim, onde informaram altos funcionários do governo chinês sobre suas discussões.

A reunião em Veneza ocorreu em um prédio de propriedade do bilionário filantropo Nicolas Berggruen. A presidente do think tank Instituto Berggruen, Dawn Nakagawa, também participou e assinou a declaração.

As reuniões são um raro local de engajamento entre cientistas chineses e ocidentais, em um momento em que os EUA e a China estão travados em uma competição tensa pela primazia tecnológica. Os cientistas disseram que suas conversas eram importantes porque a troca científica está diminuindo em meio à competição entre as duas superpotências geopolíticas.

Em uma entrevista, Bengio, um dos fundadores do grupo, citou conversas entre cientistas americanos e soviéticos no auge da Guerra Fria que ajudaram a trazer coordenação para evitar uma catástrofe nuclear.

Em ambos os casos, os envolvidos sentiram a obrigação de ajudar a fechar a caixa de Pandora aberta por suas pesquisas.

A tecnologia está mudando tão rapidamente que é difícil para empresas e governos individuais decidirem como abordá-la, e a colaboração é crucial, afirmou Fu Hongyu, diretor de governança de IA no instituto de pesquisa da Alibaba, AliResearch, que não participou do diálogo.

"Não é como regular uma tecnologia madura", disse Fu. "Ninguém sabe como será o futuro da IA."

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.