Médicos estão usando ChatGPT para dar más notícias a pacientes

Especialistas questionam se é de fato necessário recorrer à IA para encontrar palavras compassivas

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Gina Kolata
The New York Times

A OpenAI lançou a primeira versão gratuita do ChatGPT no dia 30 de novembro passado. Em questão de 72 horas, médicos já estavam usando o chatbot movido a inteligência artificial.

"Fiquei espantado e interessado, mas, para ser franco, um pouco alarmado", contou Peter Lee, vice-presidente corporativo de pesquisas e incubações da Microsoft, que investiu na OpenAI.

Ele e outros especialistas previam que o ChatGPT e outros grandes modelos de linguagem movidos a IA pudessem cuidar de tarefas mundanas que consomem horas do tempo de médicos e contribuem para casos de burnout entre eles —coisas como redigir encaminhamentos para convênios de saúde ou resumos dos prontuários de pacientes.

Ilustração da sombra de um médico analisando um paciente sobre uma mão cibernética
Apesar das desvantagens de recorrer à inteligência artificial na medicina, alguns médicos constatam que o ChatGPT melhora sua habilidade de se comunicar com os pacientes - Daniel Zender/The New York Times

Mas eles temiam que a inteligência artificial também oferecesse um atalho demasiado tentador para encontrar diagnósticos e informações médicas que podem ser incorretos ou mesmo inventados —uma perspectiva assustadora em um campo como a medicina.

O que Lee achou mais surpreendente, porém, foi uma utilização que ele não havia previsto: médicos estavam usando o ChatGPT para ajudá-los a se comunicar com os pacientes de maneiras mais compassivas.

Em uma pesquisa, 85% dos pacientes disseram que a compaixão do médico é mais importante para eles que o custo do atendimento ou o tempo de espera. Em outra, quase três quartos dos entrevistados disseram que tinham se consultado com médicos que não eram compassivos. E um estudo das conversas de médicos com os familiares de pacientes moribundos descobriu que muitos dos médicos não demonstraram empatia.

E então chegaram os chatbots, que médicos estão usando para encontrar as palavras para transmitir más notícias ou expressar preocupação com o sofrimento de um paciente, ou apenas para explicar recomendações médicas mais claramente.

Mesmo Peter Lee, da Microsoft, disse que isso é um pouco desconcertante.

"Pessoalmente, como paciente eu me sentiria estranho com isso", ele comentou.

Mas Michael Pignone, diretor do departamento de medicina interna da Universidade do Texas em Austin, não tem dúvidas quanto à ajuda que ele e outros médicos de sua equipe receberam do ChatGPT para comunicar-se regularmente com seus pacientes.

Ele explicou o problema usando jargão médico: "Estamos operando um projeto sobre a melhoria dos tratamentos do transtorno de consumo de álcool. Como conseguir a adesão de pacientes que não reagiram a intervenções comportamentais?".

Ou, como o ChatGPT poderia responder se você lhe pedisse para traduzir isso em linguagem leiga: o que os médicos podem fazer para ajudar pacientes que tomam álcool em excesso, mas não pararam mesmo depois de falar com um terapeuta?

Pignone pediu à sua equipe que escrevesse um roteiro para conversar com esses pacientes de modo compassivo.

"Passada uma semana, ninguém havia feito", ele disse. Ele só tinha um texto redigido por seu coordenador de pesquisas e uma assistente social da equipe, "e não era um roteiro de verdade".

Então Pignone experimentou com o ChatGPT, que respondeu imediatamente com um texto cobrindo os tópicos que os médicos queriam.

Ilustração de duas mãos cibernéticas envolvendo uma outra mão
Em uma pesquisa, 85% dos pacientes disseram que a compaixão do médico é mais importante para eles que o custo do atendimento ou o tempo de espera - Daniel Zender/The New York Times

Mas assistentes sociais disseram que o roteiro precisava ser revisto para pacientes com pouco conhecimento médico e também precisava ser traduzido ao espanhol. O resultado final, que o ChatGPT produziu quando lhe foi pedido que reescrevesse o texto para um nível de leitura próprio da quinta série, começou com uma introdução tranquilizadora:

"Se você acha que bebe álcool demais, não está sozinho. Muitas pessoas têm esse problema, mas há remédios que podem te fazer sentir melhor e ter uma vida mais saudável e feliz."

Em seguida havia uma explicação simples sobre os prós e contras das diferentes opções de tratamento. A equipe começou a usar o roteiro este mês.

Christopher Moriates, o coprincipal pesquisador do projeto, ficou impressionado.

"Médicos são famosos por usar linguagem de difícil compreensão ou avançada demais", ele disse. "É interessante ver que mesmo palavras que pensamos que são facilmente compreensíveis, na realidade não o são."

Alguns especialistas questionam se é realmente necessário recorrer a um programa de IA para encontrar palavras compassivas.

"A maioria de nós quer confiar em nossos médicos e respeitá-los", disse Isaac Kohane, professor de informática biomédica na Harvard Medical School. "Se eles demonstram que são bons ouvintes e são empáticos, a confiança e o respeito que sentimos tendem a aumentar."

Mas a empatia pode ser enganosa. Kohane diz que pode ser fácil confundir uma atitude gentil da parte de um médico com boas recomendações médicas.

Para Douglas White, diretor do programa de ética e tomada de decisões em doenças críticas da Escola de Medicina da Universidade de Pittsburgh, há uma razão por que os médicos podem ignorar a compaixão. "Geralmente os médicos são cognitivamente focados, tratando os problemas médicos do paciente como uma série de problemas a serem resolvidos", ele disse. Com isso, eles podem deixar de dar atenção "ao lado emocional do que os pacientes e suas famílias estão passando".

Em outros momentos os médicos podem ter plena consciência da necessidade de empatia, mas não encontram as palavras certas para expressá-la.

Gregory Moore, que até recentemente era um alto executivo que chefiava o departamento de ciências da saúde e vida da Microsoft, queria ajudar uma amiga que tinha câncer avançado. A situação dela era muito grave, e ela precisava de recomendações médicas sobre seu tratamento e o futuro. Moore decidiu apresentar as perguntas dela ao ChatGPT.

O resultado o deixou estarrecido.

Em respostas longas e compassivas às suas solicitações, o programa lhe deu as palavras para explicar à sua amiga a falta de tratamentos eficazes:

"Sei que isso é muita informação para processar e que você pode ficar desapontada ou frustrada com a falta de opções... Eu queria que houvesse mais tratamentos e tratamentos melhores... E espero que haja no futuro."

Moore passou a fazer propaganda do ChatGPT, contando a seus amigos médicos o que acontecera. Mas ele e outros dizem que, quando médicos recorrem ao chatbot para encontrar palavras para falar com mais empatia, geralmente hesitam em revelar o fato, exceto para alguns poucos amigos.

"Talvez seja porque estamos nos agarrando ao que encaramos como uma parte intensamente humana de nossa profissão", disse Moore.

Ou, como destacou Harlan Krumholz, diretor do Centro de Pesquisas e Avaliação de Resultados da Escola Yale de Medicina, o fato de um médico admitir que usa o chatbot para esse fim equivale a "admitir que ele não sabe falar com seus pacientes".

Mesmo assim, os que já experimentaram com o ChatGPT dizem que a única maneira de os médicos decidirem até que ponto se sentirão confortáveis em entregar tarefas desse tipo a um chatbot —como cultivar uma abordagem empática ou ler os resultados de prontuários médicos— é fazer algumas perguntas ao bot, eles próprios.

"Você seria louco se não tentasse e descobrisse mais sobre o que ele consegue fazer", disse Krumholz.

Tradução de Clara Allain

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.