Inteligência artificial ficará melhor em conversas, mas não em dizer a verdade

Site permite que usuário converse com imitação de quase qualquer pessoa, viva ou morta, real ou imaginária

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Cade Metz
Nova York | The New York Times

Em uma tarde recente, Jonas Thiel, estudante de socioeconomia no norte da Alemanha, passou mais de uma hora conversando online com alguns dos filósofos políticos de esquerda que ele estava estudando. Não eram os filósofos reais, mas recriações virtuais, trazidas à conversa, se não exatamente à vida, por chatbots sofisticados em um site chamado Character.AI.

O preferido de Thiel foi um bot que imitava Karl Kautsky, um socialista tcheco-austríaco que morreu antes da Segunda Guerra Mundial. Quando Thiel pediu ao avatar digital de Kautsky alguns conselhos para os socialistas modernos que lutam para reconstruir o movimento dos trabalhadores na Alemanha, o bot do Kautsky sugeriu que publicassem um jornal. "Eles podem usá-lo não apenas como um meio para espalhar propaganda socialista, que está em falta na Alemanha neste momento, como também para organizar a classe trabalhadora", disse o robô.

O bot continuou argumentando que as classes trabalhadoras acabariam por "cair em si" e abraçar uma revolução marxista moderna. "O proletariado está num ponto baixo em sua história agora", escreveu ele. "Acabarão percebendo as falhas do capitalismo, especialmente por causa das mudanças climáticas."

-- EMBARGO: NO ELECTRONIC DISTRIBUTION, WEB POSTING OR STREET SALES BEFORE 3:01 A.M. ET ON TUESDAY, JAN. 10, 2023. NO EXCEPTIONS FOR ANY REASONS -- Daniel De Freitas, a co-founder of Character.AI, demonstrates a chat on the companyÕs website, in Palo Alto, Calif., Jan. 6, 2023. At Character.AI, chats with a facsimile of almost anyone areÊpossible but not always factual. (Ian C. Bates/The New York Times)
Daniel De Freitas, cofundador da Character.AI, mostra o funcionamento da plataforma - Ian C. Bates - 6.jan.2023/The New York Times

Ao longo de vários dias, Thiel se reuniu com outros acadêmicos virtuais, incluindo G.A. Cohen e Adolph Reed Jr. Mas ele poderia ter escolhido quase qualquer um, vivo ou morto, real ou imaginário. No Character.AI, que surgiu no último verão no hemisfério norte, os usuários podem conversar com réplicas razoáveis de pessoas tão variadas quanto a rainha Elizabeth 2ª, William Shakespeare, Billie Eilish ou Elon Musk (existem várias versões). Qualquer pessoa que você queira invocar, ou inventar, está disponível para conversa.

A empresa e o site, fundados por Daniel de Freitas e Noam Shazeer, dois ex-pesquisadores do Google, estão entre diversos esforços para construir um novo tipo de chatbot. Esses bots não podem conversar exatamente como um ser humano, mas muitas vezes parecem.

No final de novembro, o laboratório de inteligência artificial OpenAI, de San Francisco, lançou um bot chamado ChatGPT que fez mais de 1 milhão de pessoas sentirem como se estivessem conversando com outro ser humano. Tecnologias semelhantes estão em desenvolvimento no Google, Meta e outros gigantes da tecnologia. Algumas empresas relutam em compartilhar a tecnologia com o público em geral. Como esses bots aprendem suas habilidades a partir de dados postados na internet por pessoas reais, eles geralmente produzem inverdades, discurso de ódio e linguagem tendenciosa contra mulheres e negros. Se mal utilizados, podem se tornar uma maneira eficaz de realizar o tipo de campanha de desinformação que se tornou comum nos últimos anos.

"Sem quaisquer proteções adicionais, eles acabarão refletindo todos os preconceitos e as informações tóxicas que já estão na web", disse Margaret Mitchell, ex-pesquisadora de IA da Microsoft e do Google, onde ajudou a iniciar a equipe Ethical AI. Agora ela está na startup de IA Hugging Face.

Mas outras empresas, incluindo a Character.AI, estão confiantes de que o público aprenderá a aceitar as falhas dos chatbots e desenvolverá uma desconfiança saudável em relação ao que eles dizem. Thiel descobriu que os bots da Character.AI tinham talento para conversar e um jeito especial para se passar por pessoas reais. "Se você ler o que alguém como Kautsky escreveu no século 19, ele não usa a mesma linguagem que usamos hoje", disse ele. "Mas a IA pode, de alguma forma, traduzir suas ideias para o inglês moderno comum."

Por enquanto, esses e outros chatbots avançados são uma fonte de entretenimento. E eles estão rapidamente se tornando uma maneira mais poderosa de interagir com as máquinas. Os especialistas ainda discutem se os pontos fortes dessas tecnologias superarão suas falhas e potenciais danos, mas eles concordam em um ponto: a credibilidade da conversa fictícia continuará a melhorar.

A arte da conversa

Em 2015, Freitas, então trabalhando como engenheiro de software na Microsoft, leu um artigo de pesquisa publicado por cientistas do Google Brain, o principal laboratório de inteligência artificial do Google. Detalhando o que chamou de "Modelo Neural de Conversa", o artigo mostrou como uma máquina pode aprender a arte da conversa analisando transcrições de diálogos de centenas de filmes.

O trabalho descreveu o que os pesquisadores de IA chamam de rede neural, um sistema matemático vagamente modelado na rede de neurônios do cérebro. Essa mesma tecnologia traduz entre espanhol e inglês em serviços como o Google Tradutor e identifica pedestres e sinais de trânsito para carros autônomos que circulam pelas ruas.

Uma rede neural aprende habilidades identificando padrões em enormes quantidades de dados digitais. Ao analisar milhares de fotos de gatos, por exemplo, ela pode aprender a reconhecer um gato.

Quando Freitas leu o artigo, ele ainda não era um pesquisador de IA; era um engenheiro de software que trabalhava em máquinas de busca. Mas o que ele realmente queria era levar a ideia do Google ao extremo lógico.

"Você poderia dizer que esse bot era capaz de generalizar", disse ele. "O que ele dizia não se parecia com o que estava num roteiro de filme."

Ele foi para o Google em 2017. Oficialmente, era engenheiro do YouTube, o site de compartilhamento de vídeos da empresa. Mas para seu projeto "20% do tempo" –uma tradição do Google que permite que os funcionários explorem novas ideias juntamente com suas obrigações diárias– ele começou a construir seu próprio chatbot.

A ideia era treinar uma rede neural usando uma coleção muito maior de diálogos: resmas de registros de bate-papo selecionados de serviços de rede social e outros sites da internet. A ideia era simples, mas exigiria enormes quantidades de poder de processamento do computador. Mesmo um supercomputador precisaria de semanas ou até meses para analisar todos aqueles dados.

Como engenheiro do Google, ele tinha alguns créditos que lhe permitiam executar software experimental na vasta rede de computadores da empresa. Mas esses créditos concederiam apenas uma pequena fração do poder de computação necessário para treinar seu chatbot. Então ele começou a pegar créditos emprestados de outros engenheiros; à medida que o sistema analisasse mais dados, suas habilidades melhorariam em grandes saltos.

Inicialmente, ele treinou seu chatbot usando o que é chamado de LSTM, ou Long Short-Term Memory –uma rede neural projetada na década de 1990 especificamente para linguagem natural. Mas ele logo mudou para um novo tipo de rede neural chamada transformador, desenvolvida por uma equipe de pesquisadores de IA do Google que incluía Noam Shazeer.

Ao contrário de um LSTM, que lê o texto uma palavra por vez, um transformador pode usar vários processadores de computador para analisar um documento inteiro em uma única etapa.

Google, OpenAI e outras organizações já estavam usando transformadores para criar os chamados "grandes modelos de linguagem", sistemas adequados a uma ampla gama de tarefas de linguagem, desde escrever mensagens no Twitter até responder a perguntas. Ainda trabalhando por conta própria, Freitas focou a ideia na conversa, alimentando seu transformador com o máximo de diálogo possível.

Era uma abordagem extremamente simples. Mas, como Freitas gosta de dizer: "Soluções simples para resultados incríveis".

O resultado nesse caso foi um chatbot que ele chamou de Meena. Foi tão eficaz que o Google Brain contratou Freitas e transformou seu projeto em um esforço oficial de pesquisa. Meena se tornou LaMDA, abreviação de Language Model for Dialogue Applications.

O projeto caiu na consciência pública no início do verão, quando outro engenheiro do Google, Blake Lemoine, disse ao The Washington Post que o LaMDA era senciente. Essa afirmação era um exagero, para dizer o mínimo. Mas a comoção mostrou a rapidez com que os chatbots estavam evoluindo nos principais laboratórios, como o Google Brain e o OpenAI.

O Google relutava em lançar a tecnologia, temendo que seu talento para desinformação e outras linguagens tóxicas pudessem prejudicar a marca da empresa. Mas a essa altura Freitas e Shazeer já tinham deixado o Google, determinados a colocar esse tipo de tecnologia nas mãos do maior número possível de pessoas por meio de sua nova empresa, a Character.AI.

"A tecnologia é útil hoje –para diversão, apoio emocional, geração de ideias, para todos os tipos de criatividade", disse Shazeer.

Projetado para trocas abertas

O ChatGPT, bot lançado pela OpenAI com grande alarde no final de novembro, foi projetado para operar como um novo tipo de mecanismo de perguntas e respostas. É muito bom nessa função, mas o usuário nunca sabe quando o chatbot vai inventar alguma coisa. Pode lhe dizer que a moeda oficial da Suíça é o euro (na verdade é o franco suíço), ou que o célebre sapo saltador de Mark Twain, do condado de Calaveras, não só podia pular, mas também falar. Pesquisadores de IA chamam essa geração de inverdades de "alucinação".

Ao construir a Character.AI, Freitas e Shazeer tinham um objetivo diferente: uma conversa aberta. Eles acreditam que os chatbots de hoje são mais adequados para esse tipo de serviço, por enquanto um meio de entretenimento, factual ou não. Como observa o site, "Tudo o que os personagens dizem é inventado!"

"Esses sistemas não são projetados para a verdade", disse Shazeer. "Eles são projetados para uma conversa plausível."

Freitas, Shazeer e seus colegas não construíram um bot que imita Musk, outro que imita a rainha Elizabeth e um terceiro que imita Shakespeare. Eles construíram um único sistema que pode imitar todas essas pessoas e outras. Ele aprendeu com resmas de diálogos, artigos, livros e textos digitais que descrevem pessoas como Musk, a rainha e Shakespeare.

Às vezes, o chatbot acerta as coisas. Às vezes, não. Quando Thiel conversou com um avatar que pretendia imitar Reed, o pensador político americano do século 20, o transformou "numa espécie de militante maoísta, o que definitivamente não está certo".

Assim como o Google, o OpenAI e outros laboratórios importantes, Freitas, Shazeer e seus colegas planejam treinar seu sistema com quantidades cada vez maiores de dados digitais. Esse treinamento pode levar meses e custar milhões de dólares; também pode aprimorar as habilidades do conversador artificial.

Os pesquisadores dizem que a rápida melhora durará apenas um certo tempo. Richard Socher, ex-cientista-chefe encarregado de AI na Salesforce, que agora dirige uma startup chamada You.com, acredita que essas melhorias exponenciais começarão a se estabilizar nos próximos anos, quando os modelos de linguagem chegarem a um ponto em que terão analisado praticamente todos os textos na internet.

Mas Shazeer disse que a trilha é muito mais longa: "Existem bilhões de pessoas no mundo gerando texto o tempo todo. As pessoas continuarão gastando cada vez mais dinheiro para treinar sistemas cada vez mais inteligentes. Não estamos nem perto do fim dessa tendência".

Tradução de Luiz Roberto M. Gonçalves

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.