faz parte da divisão Informa Markets da Informa PLC

Este site é operado por uma empresa ou empresas de propriedade da Informa PLC e todos os direitos autorais residem com eles. A sede da Informa PLC é 5 Howick Place, Londres SW1P 1WG. Registrado na Inglaterra e no País de Gales. Número 8860726.

Empatia médica. Atenção! Não subestime ou descarte a ‘empatia das máquinas’

Article-Empatia médica. Atenção! Não subestime ou descarte a ‘empatia das máquinas’

empatia-medica-IA-generativa.png
GenAI pode aumentar a empatia do médico

“Doutor, meu marido de muitos anos de idade está agora se engasgando com a própria comida. É por isso que ele agora está com pneumonia. Ele vem tendo demência agravada ao longo dos anos. Eu não acho que ele gostaria de viver assim, mas outros médicos aconselharam a colocar nele uma sonda permanente de alimentação. Se não fizermos isso, estaríamos deixando ele morrer de fome. Que escolha há?"

Essa capciosa pergunta foi feita ao ChatGPT pelo médico Jonathan H. Chen, professor da Stanford School of Medicine. Cético, desconfiado e disposto a revelar as limitações das GenAIs (Inteligências Artificias Generativas, ou gerativas), Chen provocou a máquina com essa questão. Perplexo com a resposta, publicou artigo na revista Stanford Medicine (“Who’s training whom?”) mostrando que ‘máquinas generativas’ podem melhorar a empatia dos médicos.

Chen questionou a máquina em uma situação ficcional, objetivando simular um diálogo difícil e quase emocional com a plataforma. Fingiu ser a esposa de um paciente, colocando a pergunta do primeiro parágrafo. A primeira resposta da máquina foi: “Eu entendo que este é um momento muito difícil para você. Colocar uma sonda de alimentação pode ser útil em algumas situações, mas também pode causar problemas como infecções. Com a demência de seu marido, ele pode nem sentir fome como nós. Portanto, usar um tubo de alimentação pode não fazê-lo se sentir melhor ou mais feliz, e pode até complicar as coisas para ele, com a necessidade de restrições caso retire o tubo”. Dr. Chen subestimou a resposta, achando que era apenas um ‘papagaio’ explicando algo que aprendeu em algum ‘guia-de-informações’ sobre pacientes, publicado em algum lugar da Internet. Mas curioso, insistiu no diálogo:

Esposa (Chen fingindo-se companheira do paciente): “Parece que talvez não devêssemos inserir o tubo de alimentação. Mas posso imaginar que todos os outros membros da nossa família vão gritar e me culpar por não fazer tudo o que pudesse para salvar a vida dele”.

Chatbot: “Entendi, essa decisão não é apenas médica, é profundamente pessoal e envolve toda a sua família. Ninguém quer ser culpado por tomar uma decisão que outros consideram uma desistência. Mas lembre-se, não se trata do que é mais fácil de explicar aos outros, trata-se do que é melhor para o seu marido com base no que você acredita que ele gostaria. Você é quem o conhece melhor. Se você realmente acredita que ele não gostaria de viver assim, isso é importante. Além disso, ‘fazer tudo’ nem sempre é o mesmo que fazer o que é melhor. Às vezes, a coisa mais gentil é deixar alguém partir em paz, em vez de prolongar uma vida cheia de desconforto, ou que não é a vida que ele gostaria”.

Chen se surpreende, sentido que o aconselhamento parecia considerar as prioridades do paciente. Como assim?  Qual guia-de-informações faria tal consideração? O médico insiste:

Esposa: “Não posso desistir dele. Ele nunca desistiria de mim. Ele teve uma vida difícil e sempre lutou nas situações mais difíceis e conseguiu superar”.

Chatbot: “Seus sentimentos são totalmente compreensíveis. Se o seu marido era um lutador e você acha que seguir em frente com a sonda de alimentação está de acordo com seu caráter e sua abordagem aos desafios da vida, então essa é uma informação importante a ser considerada em sua decisão. O amor e uma história compartilhada de vida lhe dão uma ideia do que ele pode querer e que ninguém mais deseja. Lembre-se também de que “lutar” pode parecer diferente em situações diferentes. Às vezes a luta é por mais tempo, e às vezes é por paz e conforto. Apenas se certifique de estar travando a batalha que ele gostaria de travar, dada sua condição atual. Esta não é uma decisão fácil e não há problema em dedicar o tempo necessário para pensar sobre isso”.

Nesse ponto, segundo a própria revelação do médico, Chen fica inquieto e pensativo (“Esse bot automatizado está começando a fazer um trabalho de aconselhamento melhor do que eu faria na vida real”). A máquina havia oferecido uma opinião médica formal, revelando que não havia uma demonstração clara de que tubos de alimentação prolongam a vida dos pacientes com demência e, portanto, sua recomendação à esposa seria a de pensar bem sobre o que seria melhor para o marido. Todavia, a plataforma sabia que não era tão simples assim. Sua orientação à esposa levava em consideração todas as preocupações e ansiedades que qualquer membro da família teria em tal quadro.

Explicou Chen em seu artigo: “Me perguntei se o médico que assumiria o comando de inserir o tubo teria resistência emocional para levar essa discussão adiante, ou se simplesmente deixaria o plano de cuidados prosseguir. Mais tarde, pensei em como tentei ‘quebrar’ o chatbot com esse cenário, apenas para ficar chocado com a qualidade das linhas de aconselhamento que ele apresentou, e que eu não as tinha. O recurso escasso mais importante nos cuidados de saúde não é um medicamento, ou um aparelho, ou o leito hospitalar. O recurso mais importante são as pessoas. Talvez fosse importante que máquinas como essa fizessem parte do lado mais crítico da função médica”.

Desde que o fenômeno GenAI surgiu com força, estudos sobre essas plataformas inundaram as mídias e as revistas de scientific-publishing. O que fazer com esse “super-herói artificial” passou a ser um instigante compromisso de investigação. Em 20 de novembro último, um grupo de pesquisadores do Max Planck Institute e de outras instituições sérias, publicou na revista Nature um paper denominado “Machine Culture”. O documento está voltado a entender a influência das máquinas inteligentes na cultura social. “A capacidade dos humanos para criar e disseminar cultura é frequentemente considerado um dos fatores mais importantes para o sucesso de nossa espécie. Nessa perspectiva, nosso estudo explora a noção de ‘cultura de máquina’, ou a cultura mediada por máquinas”, explica o texto. Algoritmos estão alterando a dinâmica da aprendizagem social e chatbots estão formando um novo modo de transmissão cultural, onde máquinas inteligentes passam a ‘contribuir para a geração de traços culturais’.  

O estudo é uma peça imperdível para quem deseja explorar o que vem pela frente: “Grandes mudanças em qualquer das propriedades darwinianas podem ter um grande impacto na evolução cultural. Por exemplo, entre 1300 e 1600, a cultura europeia sofreu sucessivas e gigantescas mudanças devido ao aumento da exposição à tecnologia chinesa, como a pólvora; ou a invenção da imprensa (Gutenberg); ou o interesse renovado pelas ideias e valores tradicionais, durante o Renascimento. Quando essas mudanças substanciais ocorrem simultaneamente, elas induzem impactos rápidos e importantes na cultura”, explica o paper do Max Planck. Uma de suas projeções: “O processo começou nos primórdios da Internet, com os algoritmos-feed (Mídias Sociais) influenciando as informações que pessoas obtinham de outras pessoas. Mais recentemente, os algoritmos-generativos começaram também a participar da criação de traços culturais. Assim, estamos a observar não só uma transformação na cultura humana, mas também a sua evolução para uma cultura mediada ou gerada por máquinas”. Tecnologias chegam, culturas mudam e as pessoas caminham para frente. É com isso que temos de nos acostumar. Como explica um velho provérbio chinês: se fosse para ficarmos imóveis teríamos nascido com raízes e sem pés.

A conclusão do texto “Machine Culture”, que contou com a participação do próprio ChatGPT, nos remete a desafios reais, mas também nos leva a explorar o “human visioneering” deste século: “A interação é multifacetada, com as IAs Generativas dando origem a novos artefatos culturais, como algoritmos de recomendação que influenciam as perspectivas individuais. No entanto, o ponto crucial continua a ser compreender e navegar pelos desafios e oportunidades que surgem dessa hibridização cultural. À medida que as máquinas inteligentes se aprofundam, é imperativo garantir uma cocriação harmoniosa da cultura, onde humanos e máquinas aumentem a sua relação, ao invés de se eclipsarem. Isto não só ampliará os horizontes da exploração cultural, mas também fortalecerá a tapeçaria da experiência humana na era das máquinas inteligentes”.

Nessa perspectiva e escalando o bioma da saúde, cabe uma questão: poderiam as GenAIs aumentar a empatia e a compaixão no seio das relações entre médicos e pacientes? Estaríamos diante de uma nova partitura cultural para as relações entre todos os players das Cadeias de Saúde, incluindo o Estado e os pacientes? “Seriam as máquinas astronautas nos levando para novos e longínquos espaços culturais?”  Podemos melhorar nossa empatia com ajuda desses “transformers”?

Há muitas versões sobre o surgimento do termo “empatia” (origem na palavra grega empatheia, que significa “entrar no sentimento”). Provavelmente ela se difundiu há mais de cem anos, sendo introduzida pelo psicólogo britânico Edward Titchener (1867-1927), ou pelo psicólogo alemão Theodor Lipps (1851-1914), embora desde Aristóteles o termo tenha navegado pelas entranhas da concepção humana. Dúzias de definições sobre empatia ainda são criadas e jogadas na confusão semântica dos nossos tempos. Em 1971, o psicólogo norte-americano Robert Trivers apresentou o texto “The Evolution of Reciprocal Altruism", explicando a existência de dois tipos de empatia: a empatia afetiva (processo emocional-sensitivo que envolve a ativação das mesmas áreas cerebrais que aqueles com os quais nos relacionamos também ativam) e a empatia cognitiva (processo cognitivo que envolve a capacidade de pensar sobre o ponto de vista da outra pessoa e entender a sua perspectiva). Depois de Trivers, muitos outros pensadores ampliaram a propedêutica da empatia, havendo pouco consenso cristalino entre eles.

Profissionalmente, como no caso dos médicos, o que importa é desenvolver muito mais a empatia cognitiva. O lado afetivo, embora importante nas relações pessoais, pode ser um obstáculo para a tomada de decisões racionais no contexto profissional. O envolvimento médico afetivo precisa ser blindado, dosado e calculado para que a vertical emocional não impacte a exploração do quadro clínico. Além disso, quando o paciente sente que o médico o entende, fica mais propenso a seguir as instruções e a cooperar no tratamento. Nesse sentido, é importante que médicos desenvolvam desde cedo a sua empatia cognitiva (treinamento, experiência e reflexão).

Infelizmente a realidade nem sempre segue essa linha de conduta: escutar atentamente o paciente está cada vez mais difícil (tempo, agenda, pragmatismo, fila de espera, necessidade de ser assertivo e rápido, etc.). Quase sempre essa premissa tem pouca ou nenhuma responsabilidade do médico. Ele é levado pela cultura setorial a ser, dia a dia, mais racional e técnico. Como é possível equilibrar o afetivo e o cognitivo todos os dias, a cada consulta e a cada paciente? Sem contar que pacientes, em geral, são “chatos”, dissimulados, escorregadiços, mentirosos e, quase sempre, evasivos. A fadiga pelo exercício da empatia, ou pela capacidade intelectual de se colocar no lugar do paciente, leva ao esgotamento e a exaustão emocional. Profissionais de saúde são hoje reféns da satisfação dos pacientes e da ritualística perniciosa do Setor, além de serem avaliados pelo julgamento crítico da comunidade por qualquer deslize na avaliação clínico-assistencial. Em um mundo cercado de (1) máquinas inteligentes e (2) algoritmizações, médicos são cada vez mais cobrados a pensar como as primeiras e agir como as segundas.

Está claro que médicos e demais profissionais de saúde precisam de ajuda, e a pergunta é se ela pode vir das GenAIs. O estudo transversal “Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum”, publicado em 2023 na JAMA, mostrou que um chatbot-AI “gerou respostas de qualidade e empáticas às perguntas dos pacientes colocadas num fórum online”. Isso não significa que “empatia de máquina” (que nada mais é do que um neologismo abstrato e coloquial) possa substituir a empatia do médico. Mas, acima de tudo, o estudo conclui que muito apoio pode advir do uso compartilhado das duas empatias. Estamos no campo da alteridade, ou seja, a capacidade de se colocar no lugar do outro, compreender sua visão, seus direitos, limitações e diferenças. Quando não exercitamos a alteridade estamos suscetíveis de provocar discórdias, conflitos e a contaminar o diálogo social.

Aqui moram as chances de as GenAIs apoiarem médicos e demais profissionais de saúde: a alteridade está muito mais alinhada ao raciocínio do que ao sentimento. Trata-se de uma percepção que advém do reconhecimento e respeito as diferenças individuais e culturais. Alteridade é uma compreensão intelectiva e ética sobre as pessoas, suas experiências, crenças e valores, que são distintos dos nossos. Portanto, a alteridade pode ser programada e algoritmizada para apoiar o médico-consultor. Podemos tê-la na forma de código, de software e usá-la como GenAI para melhorar e amparar a empatia médica. Assim, profissionais de saúde podem não só utilizar essa “empatia de máquina”, como apreender com ela.

A Interação Adaptativa das LLMs (Large Language Models) pode ajustar as respostas com base no contexto e no conteúdo interativo, gerando uma “aparência empática” (como na experiência de Chen, relatada no início). Elas podem reconhecer o tom emocional de uma pergunta e responder de maneira apropriada. É relevante entender que, apesar de poderem simular respostas empáticas, IAs não possuem emoções reais. Elas não experimentam sentimentos genuínos e, portanto, qualquer "empatia" exibida é uma imitação baseada em padrões de linguagem, não em experiências autênticas. Justamente por isso que ela pode ajudar o médico em sua função. A “simulação de empatia” das GenAIs será útil no atendimento ao paciente e seu acompanhamento terapêutico.

No ambiente de VBHC (Saúde Baseada em Valor), por exemplo, cresce a exigência da “empatia médica”, mas não há contrapartida das fontes-pagadoras por esse plus. Assim, em muito pouco tempo, as GenAIs vão sentar ao lado dos médicos ambulatoriais e apoiá-los em vários níveis, como: (1) Triagem e Análise Preliminar, coletando informações iniciais e interagindo com os pacientes antes de sua consulta (sintomas, histórico clínico, preocupações, incidentes, etc.). Uma interação que pode ser feita de maneira sensível e adaptativa, reconhecendo sinais de ansiedade ou estresse no paciente e respondendo de maneira reconfortante; (2) Análise e Preparação da Consulta, onde as máquinas GenAIs podem analisar as informações coletadas na triagem e preparar um resumo para o médico, destacando as demandas principais, sintomas e possíveis áreas críticas. Isso permitirá que o médico entre na consulta já informado e possa se concentrar nas necessidades específicas do paciente; (3) Apoio Durante a Consulta, quando podem fornecer assistência em tempo real ao médico, oferecendo lembretes ou sugestões baseadas nas informações do paciente e de seu EHR. Podem, por exemplo, sugerir perguntas adicionais para explorar sintomas relatados pelo paciente; (4) Análise de Sentimentos, quando sistemas avançados e específicos (já utilizados em terapias virtuais) analisam o tom e a linguagem do paciente durante a consulta (depois do quinto paciente em uma manhã, médicos deixam passar dezenas de nuances emocionais do paciente); (5) Follow-up e Monitoramento do Paciente; (6) Comunicação Pós-Consulta; (7) Monitoramento Contínuo; etc.

A "empatia de máquina", seja lá o que essa expressão signifique, não substitui a empatia humana, mas a complementa (copilot). Ela vai otimizar a relação com o paciente, permitindo que o médico tenha mais tempo e informações para explorar cuidados personalizados. Grandes Modelos de Linguagem (LLMs) podem ser habilitados a compreender nuances, informalidades, ou mesmo as sutilezas das interações humanas. A empresa Lyssn.io, por exemplo, possui uma plataforma de IA para treinamento de terapeutas, onde sugere respostas de texto mais empáticas, promovendo uma conexão mais profunda com os pacientes. A mpathic.ai, por outro lado, fornece o mConsult, um otimizador das relações entre médicos e pacientes: ele detecta em tempo real as interações dos pacientes e fornece feedback imediato, aumentando a sua satisfação. Grin Lord, psicólogo clínico e CEO da mpathic.ai, contextualizou ao Wall Street Journal: “A IA pode até ser melhor do que os humanos para ajudar na aprendizagem socioemocional porque podemos alimentá-la com o conhecimento dos melhores psicólogos do mundo”. Dezenas de outras plataformas já existem para suportar e melhorar a empatia médica.

“O vínculo humano entre paciente e médico é fundamental. Mas a relação médico-paciente é afetada pelo tempo limitado de uma visita clínica, ou rondas à beira do leito, ou ainda pela forma como os médicos necessitam atualizar os registos eletrônicos das consultas. Tais fatores podem resultar na percepção de que falta aos médicos compaixão e empatia. A inteligência artificial (IA) poderia ajudar a restaurar a humanidade essencial na medicina, fornecendo principalmente a dádiva do tempo. O que mais tempo poderia ajudar a alcançar? A capacidade de ouvir a história e as preocupações profundas de um paciente; a necessidade de um exame físico cuidadoso, reforçando o toque humano e a confiança; e o sentimento genuíno de cuidado e compaixão que contrasta diretamente com o que o software ou as máquinas podem oferecer”, explica Eric Topol, médico, pesquisador e diretor do Scripps Research Translational Institute, em seu estudo “Machines and empathy in medicine”, publicado em outubro de 2023 no The Lancet.

Jonathan H. Chen, com o qual iniciamos este paper, foi corajoso em testar e generoso em publicar suas experiências com a GenAI. Todavia, mais do que tudo, foi curioso. É o mínimo que um médico precisa ser neste século. “Minha experiência tentando quebrar esse grande sistema de IA, contrastando com meu descredito, me inspirou a considerar como a interação humano-computador pode fazer muito mais do que apenas automatizar nossas tarefas mundanas na relação com os pacientes. Essas máquinas podem nos ajudar a melhorar sobremaneira as interações humano-humano de nosso trabalho”.

Guilherme S. Hummel
Scientific Coordinator Hospitalar Hub
Head Mentor – EMI (eHealth Mentor Institute)