Descrição de chapéu tecnologia

Por que os chatbots de IA dizem mentiras e agem estranhamente? Olhe-se no espelho

Um dos pioneiros da inteligência artificial afirma que os chatbots muitas vezes são instigados a produzir resultados estranhos pelas pessoas que os usam

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Cade Metz
San Francisco | The New York Times

Quando a Microsoft adicionou um chatbot ao seu mecanismo de busca Bing este mês, as pessoas perceberam que ele estava apresentando vários tipos de informações falsas sobre a Gap, a vida noturna mexicana e o cantora Billie Eilish.

Então, quando jornalistas e outros testadores iniciais tiveram longas conversas com o bot de inteligência artificial da Microsoft, ele passou a ter um comportamento grosseiro e irritante, até mesmo assustador.

Desde que o comportamento do bot do Bing se tornou uma sensação mundial, as pessoas lutam para entender a estranheza dessa nova criação. Na maioria das vezes, os cientistas dizem que os humanos merecem grande parte da culpa.

Terry Sejnowski, neurocientista da Universidade da Califórnia
Terry Sejnowski, neurocientista da Universidade da Califórnia - John Francis Peters/The New York Times

Mas ainda há um pouco de mistério sobre o que o novo chatbot pode fazer –e por que ele o faria. Sua complexidade o torna difícil de dissecar e ainda mais difícil de prever, e os pesquisadores o estão observando através de lentes filosóficas, bem como do código rígido da ciência da computação.

Como qualquer outro estudante, um sistema de IA pode aprender informações ruins de fontes ruins. E esse comportamento estranho? Talvez seja o reflexo distorcido por um chatbot das palavras e intenções das pessoas que o usam, disse Terry Sejnowski, neurocientista, psicólogo e cientista da computação que ajudou a estabelecer as bases intelectuais e técnicas da IA moderna.

"Isso acontece quando você se aprofunda cada vez mais nesses sistemas", disse Sejnowski, professor do Instituto Salk de Estudos Biológicos e da Universidade da Califórnia em San Diego, que publicou um trabalho de pesquisa sobre esse fenômeno este mês na revista científica Neural Computation. "O que quer que você esteja procurando –o que você deseja– eles fornecerão."

O Google também exibiu um novo chatbot, Bard, este mês, mas cientistas e jornalistas rapidamente perceberam que estava escrevendo bobagens sobre o Telescópio Espacial James Webb. A startup de San Francisco OpenAI lançou o boom dos chatbots em novembro, quando apresentou o ChatGPT, que também nem sempre diz a verdade.

Os novos chatbots são movidos por uma tecnologia que os cientistas chamam de modelo de linguagem grande, ou LLM (large language model). Esses sistemas aprendem analisando enormes quantidades de texto digital retirado da internet, que inclui muito material falso, tendencioso e tóxico. O texto com o qual os chatbots aprendem também está um pouco desatualizado, porque eles devem passar meses analisando-o antes que o público possa usá-lo.

Ao analisar esse mar de informações boas e ruins da internet, um LLM aprende a fazer uma coisa específica: adivinhar a próxima palavra numa sequência de palavras.

Ele funciona como uma versão gigante da tecnologia de preenchimento automático que sugere a próxima palavra enquanto você digita um e-mail ou uma mensagem instantânea em seu smartphone. Dada a sequência "Tom Cruise é um ...", ele pode adivinhar "ator".

Quando você conversa com um chatbot, o bot não está apenas utilizando tudo o que aprendeu na internet. Ele se baseia em tudo o que você disse a ele e em tudo o que ele respondeu. Não é apenas adivinhar a próxima palavra em sua frase. É adivinhar a próxima palavra no longo bloco de texto que inclui suas palavras e as palavras dele.

Quanto mais longa a conversa, mais influência um usuário involuntariamente tem sobre o que o chatbot está dizendo. Se você quiser que ele fique com raiva, ele fica com raiva, disse Sejnowski. Se você o convencer a ser assustador, ele será assustador.

A Microsoft e a OpenAI decidiram que a única maneira de descobrir o que os chatbots farão no mundo real é deixá-los soltos –e capturá-los quando eles se desviarem. Eles acreditam que seu grande experimento público vale o risco.

Sejnowski comparou o comportamento do chatbot da Microsoft ao Espelho de Ojesed, um artefato místico dos romances "Harry Potter" de J.K. Rowling e em muitos filmes baseados em seu mundo criativo de jovens bruxos.

"Ojesed" é "desejo" escrito ao contrário. Quando as pessoas descobrem o espelho, ele parece oferecer verdade e compreensão. Mas isso não acontece. Ele mostra os desejos mais profundos de qualquer um que olhe para ele. E algumas pessoas enlouquecem se olharem por muito tempo.

"Como o ser humano e os LLMs se espelham, com o tempo eles tenderão a um estado conceitual comum", disse Sejnowski.

Não foi surpresa, disse ele, que os jornalistas começaram a ver um comportamento assustador no chatbot do Bing. Consciente ou inconscientemente, eles estavam instigando o sistema numa direção desconfortável. À medida que os chatbots absorvem nossas palavras e as refletem para nós, eles podem reforçar e ampliar nossas crenças e nos convencer a acreditar no que eles estão nos dizendo.

Como esses sistemas aprendem com muito mais dados do que nós, humanos, jamais poderíamos imaginar, nem mesmo os especialistas em IA conseguem entender por que eles geram um determinado texto em um momento qualquer.

Sejnowski disse acreditar que, em longo prazo, os novos chatbots têm o poder de tornar as pessoas mais eficientes e lhes dar maneiras de fazer seu trabalho melhor e mais rapidamente. Mas isso inclui um alerta tanto para as empresas que constroem esses chatbots quanto para as pessoas que os usam: eles também podem nos afastar da verdade e nos levar a lugares sombrios.

"Esta é uma terra incógnita", disse Sejnowski. "Os humanos nunca experimentaram isso antes."

Tradução de Luiz Roberto M. Gonçalves

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.