Descrição de chapéu Financial Times

Conversas com bots de IA podem reduzir crenças em teorias da conspiração

Pesquisa contraria a ideia de que é quase impossível mudar algumas mentes sobre ideias populares sem evidências

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Michael Peel
Londres | Financial Times

Conspiracionistas que debateram com um chatbot de IA (inteligência artificial) tornaram-se mais dispostos a admitir dúvidas sobre suas crenças, de acordo com uma pesquisa que oferece insights sobre como lidar com a desinformação.

A abertura mental se estendeu até mesmo aos devotos mais teimosos e persistiu muito tempo após o diálogo com a máquina, descobriram os cientistas.

A pesquisa contraria a ideia de que é praticamente impossível mudar a mente de indivíduos que mergulharam em buracos de ideias populares sem evidências.

Tela azul com as palavras 'artificial intelligence' em branco. À frente da tela, há a sombra de pessoas usando computadores.
Pesquisadores apontam que, no futuro, tecnologia pode ajudar a combater desinformação - Dado Ruvic/Reuters

Os resultados são impressionantes porque sugerem um potencial positivo para modelos de IA no combate à desinformação —apesar de suas próprias vulnerabilidades a "alucinações" que às vezes os fazem espalhar informações falsas.

O trabalho "pinta um quadro mais otimista da mente humana do que muitos poderiam esperar" e mostra que "o raciocínio e as evidências não estão mortos", disse David Rand, um dos pesquisadores do trabalho publicado na Science nesta quinta-feira (12).

"Mesmo muitos conspiracionistas responderão a fatos e evidências precisas —você só precisa abordar diretamente suas crenças e preocupações específicas", disse Rand, professor da Sloan School of Management do Instituto de Tecnologia de Massachusetts.

"Embora haja preocupações legítimas generalizadas sobre o poder da IA generativa para espalhar desinformação, nosso artigo mostra como ela também pode ser parte da solução, sendo uma educadora altamente eficaz", acrescentou.

Os pesquisadores examinaram se grandes modelos de linguagem de IA, como o GPT-4 Turbo da OpenAI, poderiam usar sua capacidade de acessar e resumir informações para abordar crenças conspiratórias persistentes. Isso incluiu teorias de que os ataques terroristas de 11 de setembro de 2001 foram encenados, a eleição presidencial dos Estados Unidos de 2020 foi fraudulenta e a pandemia de covid-19 foi orquestrada.

Quase 2.200 participantes compartilharam ideias conspiratórias com o dispositivo, que gerou evidências para contrariar as alegações. Esses diálogos reduziram a crença autoavaliada da pessoa em sua teoria escolhida em uma média de 20% por pelo menos dois meses após conversar com o bot, disseram os pesquisadores.

Um verificador de fatos profissional avaliou uma amostra da produção do modelo para precisão. A verificação encontrou 99,2% das alegações do bot como verdadeiras e 0,8% como enganosas, disseram os cientistas.

A abordagem personalizada de perguntas e respostas do estudo é uma resposta à aparente ineficácia de muitas estratégias existentes para combater a desinformação.

Outra dificuldade dos esforços generalizados para direcionar o pensamento conspiratório é que conspirações reais acontecem enquanto, em outros casos, narrativas céticas podem ser altamente exageradas, mas baseadas em um núcleo de verdade.

Uma teoria sobre por que a interação com o chatbot parece funcionar bem é que ele tem acesso instantâneo a qualquer tipo de informação, de uma maneira que um respondente humano não tem.

A máquina também lidou com seus interlocutores humanos em termos educados e empáticos, em contraste com o desprezo às vezes despejado sobre quem acredita em teorias conspiratórias na vida real.

Outras pesquisas, no entanto, sugeriram que o modo de abordagem da máquina provavelmente não era um fator importante, disse Rand. Ele e seus colegas fizeram um experimento de acompanhamento no qual a IA foi instruída a dar correções factuais "sem as gentilezas" e funcionou igualmente bem, acrescentou.

O "tamanho, robustez e persistência da redução nas crenças conspiratórias" do estudo sugeriram que uma "intervenção escalável para recalibrar crenças desinformadas pode estar ao alcance", de acordo com um comentário acompanhante também publicado na Science.

Possíveis limitações para isso, no entanto, incluíam dificuldades em responder a novas teorias da conspiração e em persuadir pessoas com baixa confiança em instituições científicas a interagir com o bot, disseram Bence Bago da Universidade de Tilburg, na Holanda, e Jean-François Bonnefon da Escola de Economia de Toulouse, que coautoraram o artigo secundário.

"A técnica de diálogo com IA é tão poderosa porque automatiza a geração de contra-evidências específicas e detalhadas para os argumentos intrincados dos crentes em conspirações e, portanto, poderia ser implantada para fornecer informações corretivas precisas em escala", disseram Bago e Bonnefon, que não participaram da pesquisa.

"Uma limitação importante para realizar esse potencial reside na entrega", acrescentaram. "Ou seja, como fazer com que indivíduos com crenças conspiratórias arraigadas se envolvam com um programa de IA devidamente treinado desde o início."

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.