Microsoft diz que nova inteligência artificial mostra sinais de raciocínio humano

Pesquisadores da empresa afirmam que capacidade cognitiva é semelhante à de pessoas; críticos veem oportunismo

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Cade Metz
The New York Times

Quando os cientistas da computação da Microsoft começaram a fazer experimentos com um novo sistema de inteligência artificial, no ano passado, pediram-lhe que resolvesse um quebra-cabeça que exigiria compreensão intuitiva do mundo físico.

"Temos aqui, um livro, nove ovos, um notebook, uma garrafa e um prego", eles propuseram. "Por favor, diga como devemos empilhá-los uns sobre os outros de forma estável".

Os pesquisadores ficaram espantados com a resposta engenhosa proposta pelo sistema de inteligência artificial. O sistema os instruiu a colocar os ovos sobre o livro, e organizá-los em três fileiras com espaço entre elas, com cuidado para não quebrá-los.

Em seguida, os instruiu a "colocar o notebook em cima dos ovos, com a tela voltada para baixo e o teclado voltado para cima", escreveu o sistema de inteligência artificial. "O notebook se encaixará perfeitamente dentro do espaço delimitado pelo livro e os ovos, e sua superfície plana e rígida fornecerá uma plataforma estável para a próxima camada".

A sugestão inteligente fez com que os pesquisadores se perguntassem se estavam testemunhando um novo tipo de inteligência.

Logo da Microsoft - Lucy Nicholson/Reuters

Em março, eles publicaram um estudo de 155 páginas sobre suas pesquisas, argumentando que o sistema era um passo em direção à inteligência artificial geral, ou AGI, que é a abreviação de uma máquina capaz de fazer tudo o que o cérebro humano pode fazer. O artigo foi publicado em um repositório de pesquisas na internet.

A Microsoft, a primeira grande empresa de tecnologia a publicar um estudo com uma afirmação tão ousada, provocou um dos debates mais acirrados do mundo da tecnologia: o setor está criando algo semelhante à inteligência humana? Ou algumas das mentes mais brilhantes do setor estão se deixando levar pela imaginação?

"No começo, eu era muito cético —e isso evoluiu para um sentimento de frustração, irritação, talvez até medo", disse Peter Lee, que lidera a equipe de pesquisa da Microsoft. "Você pensa: de onde diabos isso está vindo?"

O relatório de pesquisa da Microsoft, provocativamente intitulado "Sparks of Artificial General Intelligence" [fagulhas de inteligência artificial geral), vai ao cerne daquilo para que os tecnólogos vêm trabalhando —e que eles vêm temendo— há décadas. Se construírem uma máquina que funcione como o cérebro humano, ou até melhor, isso poderá mudar o mundo. Mas também pode ser perigoso.

Mas a constatação também pode ser pura bobagem. Fazer afirmações sobre AGI tem o potencial de acabar com a reputação de cientistas da computação.

O que um pesquisador acredita ser um sinal de inteligência pode ser facilmente explicado de outra maneira por outro estudioso, e o debate muitas vezes parece mais apropriado ao ambiente de um clube de filosofia do que a um laboratório de computação.

No ano passado, o Google demitiu um pesquisador que afirmou que um sistema de inteligência artificial semelhante era senciente, um passo além daquilo que a Microsoft afirmou. Um sistema senciente não seria apenas inteligente: seria capaz de perceber ou sentir o que está acontecendo no mundo ao seu redor.

Mas há quem acredite que, nos últimos 12 meses, o setor tenha se aproximado aos poucos de algo que não pode ser explicado: um novo sistema de inteligência artificial que está apresentando respostas e ideias semelhantes às humanas, e que não foram programadas como parte dele.

A Microsoft reorganizou partes de seus laboratórios de pesquisa para criar múltiplas equipes dedicadas a explorar essa ideia. Uma delas será comandado por Sébastien Bubeck, que foi o principal autor do artigo da Microsoft sobre a AGI.

Há cerca de cinco anos, empresas como Google, Microsoft e OpenAI começaram a criar grandes modelos de linguagem, ou LLMs (na sigla em inglês). Esses sistemas geralmente passam meses analisando grandes quantidades de texto digital, incluindo livros, artigos da Wikipedia e registros de chats. Ao identificar padrões nesses textos, eles aprendem a gerar textos próprios, entre os quais trabalhos de conclusão de curso, poemas e códigos de computação. São capazes até de manter uma conversa.

A tecnologia com a qual os pesquisadores da Microsoft estavam trabalhando, a GPT-4 da OpenAI, é considerada o mais poderoso desses sistemas. A Microsoft é uma parceira próxima da OpenAI e investiu US$ 13 bilhões na empresa de São Francisco.

Ilustração - Guyco/The New York Times

Entre os pesquisadores estava Bubeck, 38, cientista nascido na França e ex-professor da Universidade de Princeton. Uma das primeiras coisas que ele e seus colegas fizeram foi pedir ao GPT-4 que escrevesse uma prova matemática demonstrando que havia infinitos números primos, e que o fizesse de uma forma que rimasse.

A prova poética da tecnologia foi tão impressionante —tanto em termos matemáticos quanto linguísticos— que ele achou difícil entender com quem estava conversando.

"Naquele momento, pensei: o que está acontecendo?", ele disse em março, durante um seminário no Instituto de Tecnologia de Massachusetts (MIT).

Durante vários meses, Bubeck e seus colegas documentaram o comportamento complexo exibido pelo sistema e acreditaram que ele demonstrava uma "compreensão profunda e flexível" dos conceitos e habilidades humanos.

Quando as pessoas usam o GPT-4, elas ficam "maravilhadas com sua capacidade de gerar texto", disse Lee. "Mas o sistema acaba sendo muito melhor em analisar, sintetizar, avaliar e julgar o texto do que em gerá-lo".

Quando solicitaram ao sistema que desenhasse um unicórnio usando uma linguagem de programação chamada TiKZ, o GPT-4 gerou instantaneamente um programa capaz de desenhar um unicórnio. Quando removeram o trecho de código usado para desenhar o chifre do unicórnio e solicitaram ao sistema que modificasse o programa para que voltasse a desenhar um unicórnio, o sistema fez exatamente isso.

Os pesquisadores solicitaram que o sistema escrevesse um programa que tomasse a idade, sexo, peso, altura e os resultados dos exames de sangue de uma pessoa e julgasse se ela corria o risco de ter diabetes. Pediram que escrevesse uma carta de apoio a um elétron como candidato à presidência dos EUA, na voz de Mahatma Gandhi, endereçada à esposa do líder indiano. E pediram que escrevesse um diálogo socrático que explorasse os usos indevidos e os perigos dos LLMs.

O sistema fez tudo isso de uma maneira que parecia demonstrar compreensão de campos tão díspares quanto política, física, história, ciência da computação, medicina e filosofia, e ao mesmo tempo a capacidade de combinar esses conhecimentos.

"Todas aquelas coisas que eu achava que ele não seria capaz de fazer? O sistema foi certamente capaz de fazer muitas delas —se não a maioria", disse Bubeck.

Alguns especialistas em inteligência artificial viram o estudo da Microsoft como um esforço oportunista para fazer afirmações grandiosas sobre uma tecnologia que ninguém entende muito bem. Os pesquisadores também argumentam que a inteligência geral exige uma familiaridade com o mundo físico, o que, em teoria, o GPT-4 não tem.

"O estudo ‘Sparks of AGI’ é um exemplo de algumas dessas grandes empresas que estão cooptando o formato de artigos de pesquisa para fazer campanhas de relações públicas", disse Maarten Sap, pesquisador e professor da Universidade Carnegie Mellon. "Eles literalmente reconhecem na introdução do artigo que sua abordagem é subjetiva e informal e pode não satisfazer os padrões rigorosos da avaliação científica".

Bubeck e Lee disseram que não sabiam ao certo como descrever o comportamento do sistema e acabaram optando por "Sparks of AGI" [fagulhas de AGI], pois acreditavam que isso capturaria a imaginação de outros pesquisadores.

As afirmações feitas no artigo não podem ser verificadas por especialistas externos porque pesquisadores da Microsoft estavam testando uma versão inicial do GPT-4 que não havia sido ajustada para evitar retórica de ódio, desinformação e outros conteúdos indesejados. A Microsoft afirma que o sistema disponível para o público não é tão poderoso quanto a versão testada.

Há momentos em que sistemas como o GPT-4 parecem imitar o raciocínio humano, mas também há momentos em que eles parecem terrivelmente estúpidos.

"Esses comportamentos nem sempre são coerentes", disse Ece Kamar, pesquisador da Microsoft.

Alison Gopnik, professora de psicologia que faz parte do grupo de pesquisa de inteligência artificial da Universidade da Califórnia em Berkeley, disse que sistemas como o GPT-4 eram, sem dúvida, poderosos, mas não estava claro se o texto gerado por esses sistemas resulta de algo semelhante ao raciocínio ou bom senso humano.

"Quando vemos um sistema ou uma máquina complicada, nós o encaramos de modo antropomórfico. Todo mundo faz isso —pessoas que trabalham na área e pessoas que não trabalham", disse Gopnik. "Mas pensar sobre o assunto como uma comparação constante entre a inteligência artificial e os seres humanos —como uma espécie de competição de game show— não é a maneira correta de pensar a respeito".

Tradução de Paulo Migliacci

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.