Inteligência artificial é ameaça à humanidade como pandemia e guerra nuclear, dizem CEOs e cientistas do setor

'Pai' do ChatGPT e outros 350 signatários afirmam que mitigar risco de extinção deve ser prioridade global

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Cristina Criddle
Londres | Financial Times

Um grupo de 350 executivos-chefes e cientistas de empresas diz que a ameaça que a IA (inteligência artificial), em desenvolvimento acelerado, representa à humanidade é tão grave quanto conflitos nucleares e doenças. Dentre eles estão Sam Altman, CEO da OpenAI e "pai" do ChatGPT, e Demis Hassabis, CEO da Google DeepMind.

"Mitigar o risco de extinção pela IA deve ser uma prioridade global, ao lado de outros riscos em escala social ampla, como pandemias e guerra nuclear", afirma a declaração divulgada pelo Center for AI Safety (Centro para a Segurança da IA), organização sem fins lucrativos com sede em San Francisco.

Geoffrey Hinton e Yoshua Bengio, que receberam um Prêmio Turing por seu trabalho sobre redes neurais e frequentemente são descritos como "padrinhos" da IA, também assinaram o documento.

Hinton deixou seu cargo no Google no início do mês para falar livremente sobre os males potenciais da tecnologia.

Sam Altman, CEO da OpenAI discursa em evento em Paris, França - Joel Saget - 26.mai.2023/AFP

O comunicado foi divulgado na sequência de chamados por regulação lançados de todas as partes do setor depois de uma série de lançamentos de big techs ter ampliado a consciência dos perigos potenciais da IA.

Dentre os males, a difusão de desinformação, a perpetuação de vieses sociais e a substituição de trabalhadores humanos.

Legisladores da União Europeia estão trabalhando sobre a Lei de Inteligência Artificial europeia. Os Estados Unidos também estão explorando a regulamentação da tecnologia.

Lançado em novembro, o ChatGPT da OpenAI, apoiada pela Microsoft, é visto como líder na adoção ampla da inteligência artificial. Este mês, Sam Altman depôs pela primeira vez no Congresso americano, pedindo a adoção de regulação na forma de licenças.

Em março, Elon Musk e mais de mil outros pesquisadores e executivos de tecnologia pediram uma pausa de seis meses no desenvolvimento de sistemas avançados de IA, para sustar o que descreveram como uma "corrida armamentista".

A carta deles foi criticada por sua abordagem, incluindo por alguns pesquisadores citados em seu raciocínio. Outros discordaram da pausa recomendada no desenvolvimento da tecnologia.

Com um comunicado de uma linha, o Center for AI Safety disse ao New York Times que espera evitar divergências.

"Não queríamos defender um menu muito grande de 30 potenciais intervenções", disse o diretor executivo da organização, Dan Hendrycks. "Quando isso acontece, dilui a mensagem."

Kevin Scott, o diretor de tecnologia da Microsoft, e Eric Horvitz, diretor científico da empresa, também firmaram o comunicado na terça-feira, assim como Mustafa Suleyman, ex-co-fundador da DeepMind que hoje comanda a startup Inflection AI.

Tradução de Clara Allain

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.