O ano de 2025 foi um ano em que a intuição valeu menos. Não é possível dizer se foi diferente em 2024, mas tudo foi mais rápido. Assustadoramente mais rápido no contexto de “tempo dos afetos”, onde tudo nos parece mais ou menos veloz. Muitas vezes estamos diante de determinadas situações na vida, ou desafios, em que não basta ‘gastar’ intuição; é preciso parar, pensar, estudar, inserir análises e, com algum heroísmo, concluir. Nem sempre concluímos de maneira acertada; em geral, temos pouco tempo para avaliar e o erro nos espreita.

Em 2025, estamos sendo testados, ou cobrados a formular juízo em escolhas que envolvem consequências que nos impactarão décadas ou séculos à frente. Refiro-me à locomotiva da Cognição Artificial (IA), que está invadindo nossas vidas, nosso trabalho, família, crenças, política e Saúde. Em 2025, nossa capacidade de intuição foi menos importante do que nossa capacidade de discernimento. Não será diferente em 2026, talvez seja ainda mais rápido.

Nas Cadeias de Saúde, não nos livramos dos velhos problemas e demandas seculares. Pelo contrário, como imaginar essa manchete há uma década? “Oito em cada dez hospitais do NHS inglês estão atendendo pacientes de pronto-socorro nos corredores”. Comparativamente, no mesmo dezembro de 2025, o MIT (Massachusetts Institute of Technology), talvez a melhor universidade do mundo, publicou: “Pesquisadores do MIT dão vida a objetos usando IA e robótica”, sem falar no relatório “AI in Hospitals: 2025 Adoption Trends & Statistics” queexpressou:“Em 2024, 71% dos hospitais não-federais de cuidados agudos dos EUA já utilizam IA preditiva integrada aos seus EHR (contra 66% em 2023)”. Tempos loucos, tempos exuberantes…

A comunidade médica e as lideranças globais em saúde estão no alto de uma montanha, muitos olhando para os lados sem saber bem qual é o topo, mas ativando esforços para subir ainda mais e não descer. Até porque não há mais retorno. Outros permanecem impávidos, presos, imobilizados pela incerteza e pela aposta intuitiva (“é bolha!”). Algumas lideranças médicas, inclusive no Brasil, já arregaçam as mangas, testam, estudam, pesquisam e, talvez, ainda assim desconfiem que o “mundo não dura mais do que um par de anos…”.

Essa relação entre medo, coragem e esperança na tomada de decisão é decifrada por Espinosa (1632-1677): “medo não é covardia, é tristeza por antecipação produzida pela imaginação de um futuro incerto” (se temos certeza de algo ruim, não temos mais medo, mas tristeza).Ele nasce menos do perigo do que da ‘ideia de um perigo eminente’, reduzindo a potência de agir. Coragem, ao contrário, não é euforia e nem negação ao risco. Espinosa chamava de fortitudo [em português, fortaleza ou força de ânimo] essa força de perseverar e agir sob a orientação da razão, mesmo quando a imaginação insiste em transformar o futuro incerto em sentença. “Sob a razão, a perseverança vira fortitudo; sob a imaginação, vira servitus: o conatus governado por paixões e pela flutuação entre esperança e medo.”

Ou seja, nossas expectativas quanto ao porvir (futuro) dialogam constantemente com nossa emoção e razão. Quando a ‘conjectura sobre o futuro é positiva’, decorre esperança; quando somos dominados por uma ‘conjectura negativa’, decorre medo. Assim, diante das IAs, muitas lideranças médicas não apostam no “fim do mundo” (embora não haja certezas).

Essa fluência de dúvidas, debates e questionamentos sobre o impacto da tecnologia na civilização humana não é nova. Esse mergulho tecnicista vem de milênios. Espiar suas raízes talvez nos ajude a entender a brutal transformação que nos aguarda. Se Heidegger (1889-1976), por exemplo, um dos mais importantes pensadores sobre a ‘metafísica da técnica na vida humana’, estivesse vivo hoje, ele não perguntaria “o que essa IA faz?”; mas sim: “o que a IA nos faz ver como sendo real?”.

Para ele, tecnologia não é um conjunto de ferramentas: é um modo de desvelamento. Uma lente ontológica. Uma maneira de o mundo aparecer. Entendendo “desvelamento” aqui como “o ato de tornar público, de fazer com que seja do conhecimento da maioria; revelação, exposição”. Se ontologia é o estudo do ser, da existência e da realidade, Heidegger levou isso aoparoxismo:para ele, a desertificação (cunhada por Nietzsche), onde o homem suprassensível desapareceu(não há mais muletas metafísicas de apoio, sejam celestiais ou transcendentais), restou ao humano a tarefa mais incômoda de todas: habitar essa clareira (abertura em que algo novo pode aparecer), decidindo o que comparecerá como o real.

A técnica moderna, em Heidegger, não entra nessa clareira desértica como mera “ajuda”: ela a reorganiza e redefine o deserto. Ela enquadra o mundo (Gestell), exigindo que tudo e todos compareçam como recurso disponível, mensurável, previsível, extraível, inclusive nós mesmos. Nesse cenário de desertificação, o que antes era “muleta metafísica” vira muleta operacional e consolo por meio da eficiência. Ou seja (e aqui vem o desconforto), a IA não chega apenas como mais um instrumento, ela chega como uma entidade que reordena o visível, reclassifica o provável, decide o relevante, e transforma a experiência humana em algo cada vez mais… interconectado (cada vez menos “só nosso, só meu”). Para entender essa fricção entre a tecnologia e a pulsão humana, é preciso entender as diferenças heideggerianas entre “ente” e “ser”.

Se ‘ente’ é tudo aquilo que encontramos (pessoas, objetos, eventos, dados, etc.), então a IA pode ser a grande indústria contemporânea de ‘entes’: ela captura, recorta, prevê, recombina… etc. Mas o ‘ser’… bem, o ser é outra coisa. É o horizonte que permite a qualquer ente “aparecer”. É a condição de possibilidade do aparecer. Quando o mundo inteiro vira cálculo, o ‘ser’ se ausenta, não por desaparecer, mas por ficar “imperguntado” (não-interrogado), apenas observando. Hoje, com as IAs, nós talvez estejamos vivendo um salto tecnológico mais amplo, que não só domina a matéria como também a significação. Isto é, uma inteligência artificial que reorganiza o mundo em conexões, dependências, correlações, mediações e acoplamentos: ela “redesenha o aparecer”.

O ‘ente’ vira dado; mas o ‘ser’ não se deixa reduzir a dado: permanece irredutível ao cálculo e escapa ao tipo de captura exercida sobre o ‘ente’. A IA opera sobre o ‘ente’: textos, imagens, prontuários, sinais vitais, padrões, correlações, etc. Ela não alcança o ‘ser’. Heidegger insere o exemplo do martelo: “Pense num martelo. Quando eu estou martelando de verdade, eu não fico contemplando o martelo. Eu não penso: ‘isto é um objeto de metal com cabo de madeira’. Nada disso. O martelo, nesse momento, quase desaparece. Ele é só ‘o que funciona’, incorporado no gesto. Agora, quando o martelo quebra, ou a cabeça se solta, aí acontece uma coisa estranha: o martelo deixa de ser ‘aquilo com que eu faço’ e vira ‘aquilo sobre o que eu penso’. Ele salta do pano de fundo e vira tema”. Ou seja: o mundo não exige que repensemos o sentido a cada segundo (enlouqueceríamos). O mundo nos entrega um sentido ‘suficiente’ para viver. Mas quando algo falha, o sentido aparece como problema (muitos, inclusive, vivem em tormento porque tudo precisa fazer sentido a todo instante).

Será assim com a Cognição Artificial (IA): ela não existe para nos fazer pensar nela o tempo todo, mas para reprogramar o pano de fundo, fazendo as coisas aparecerem como probabilidade, score, prioridade, antes mesmo de notarmos. Quando ela ‘funciona’, ela some do cotidiano (tudo o que a envolve é “ente”, não precisa do “ser”). Ela está no corretor, na busca, no mapa, no filtro, no suporte clínico, no resumo, na triagem, na agenda, na consulta ambulatorial, etc. Ela vira infraestrutura, ou talvez commodity, como citou recentemente Satya Nadella, CEO da Microsoft. Ela ficará invisível, como hoje é a eletricidade (você só pensa nela quando é cortada).

Isso é parte do ideário heideggeriano: quando a IA falhar (quando alucina, quando erra, quando distorce ou evidencia um viés, ou uma recomendação errada), ela deixa de ser pano de fundo e vira alvo: salta do modo ‘com-que-eu-operava’ para o modo ‘sobre-o-que-eu-tenho-que-pensar’. Estamos preocupados demais em criar “instâncias” ou atributos de segurança para os LLMs. Antes de testá-los, já estamos angustiados com as possíveis imperfeições. É mais simples do que parece: “teste, use, ensaie, erre: quando a IA desaparecer no uso, ela vira mundo. E quando vira mundo, a pergunta não é mais tecnológica, mas ontológica”. Se, por outro lado, ela vira infraestrutura de Saúde, então o que vale é governança, auditoria e responsabilidade, que deixam de ser ‘compliance’ para se transformarem em “condições de realidade”.

Nem por um momento pense que Heidegger, vivendo hoje, entre nós, ficaria satisfeito com os efeitos da tecnologia sobre o mundo. Longe disso. Em muitos capítulos de sua vasta produção literária (dezenas de volumes), ele escrevia como um verdadeiro tecnófobo. Aliás, não poucas vezes ele escreveu estultices medonhas, quando à sombra do nacionalismo nazista alemão (nunca se livrou da pecha de ‘pulha colaboracionista’). Mesmo assim, suas obras “Ser e Tempo” (1927), “Os Problemas Fundamentais da Fenomenologia” (1928) e muitas outras ainda hoje são cânones da filosofia e continuam estruturando debates acadêmicos em todo o Ocidente.   

Para finalizar, antes de entrar em 2026, seria bom preocuparmo-nos menos com a litania de “que as inteligências artificiais vão superar os humanos, ou uma AGI vai subjugar os homens”. Apenas voe. Sabe o que é voar? Quem sair de Guarulhos com destino a Madri, por exemplo, VOARÁ. Seu corpo vai atravessar o Atlântico e chegar à Europa dentro de uma aeronave. Antes de sentar em seu assento, ninguém se perguntará: “..., mas será que esse avião voa como um pássaro?” Óbvio que não voa, mas isso é totalmente desimportante e tolo. Use as IAs sem exigir que elas “voem” melhor ou pior que humanos. Comemore 2025. Logo vamos decolar novamente. Sorte em 2026!

Guilherme S. Hummel

Head Mentor – EMI (eHealth Mentor Institute)