Esse é o título de um livro muito interessante sobre falhas catastróficas em organizações, escrito por Robert Mittelstaedt, um influente pensador norte-americano sobre administração de empresas, reitor emérito da WP Carey School of Business.

No livro, Mittelstaedt usa exemplos de grandes corporações, como o da Enron, do acidente com a plataforma de petróleo da Exxon no Golfo do México e do ônibus espacial Colúmbia, que explodiu poucos segundos após o lançamento.

Na saúde, estima-se que ocorra um erro fatal a cada 11 minutos – segundo publicação do Instituto de Estudos de Saúde Suplementar (IESS) com a Universidade Federal de Minas Gerais (UFMG) que estimou, em 2018, cerca de 55 mil mortes por ano relacionadas a eventos adversos associados a prestação do cuidado; desses, mais de 87%, ou seja, 48 mil, seriam evitáveis.

Enquanto as falhas fatais de Mittelstaedt destroem as organizações e, em alguns casos, também associadas a fatalidades, na saúde vivemos uma epidemia de mortes associadas a erros. E não se trata de um problema brasileiro. Estudo de 2016 da Universidade Johns Hoplkins, dos EUA, publicado no BMJ, uma das principais publicações científicas do mundo sobre saúde, estima em 250 mil o número de mortes associadas a falhas na prestação do cuidado, tornando-se a terceira principal causa de morte nos EUA.

Mas por que os erros acontecem? Estudiosos têm perspectivas distintas ao lidar com falhas, mas todos convergem para pontos centrais similares ao se pensar em contramedidas.

Amy Edmondson, professora da Universidade de Harvard e especialista em segurança psicológica, divide os erros em três tipos: evitáveis em processos previsíveis, inevitáveis em processos complexos/incertos, ou apenas erros de experimentação.

Os “erros evitáveis em operações previsíveis” envolvem um desvio involuntário de uma especificação. Eles ocorrem, por exemplo, por falta de capacidade de pessoas não qualificadas ou sem o devido treinamento, em processos inadequados ou por tarefas acima da capacidade funcional de quem as executa. Falhas assim são tratadas com ações de melhorias e/ou redesenhos de processos.

Já os “erros inevitáveis em processos complexos/incertos” envolvem atividades formadas por muitos elementos. Por exemplo, uma cirurgia de emergência em um diabético com exames mal controlados e em uso de anticoagulante. Essa combinação pode provocar algum tipo de interação inédita e uma falha imprevisível. Esse tipo de erro está relacionado à falta de clareza sobre os eventos futuros, nos quais decisões aparentemente sensatas produzem resultados indesejados – como no caso do uso de respiradores mecânicos no início da pandemia de COVID19, quando se compreendeu, a seguir, que abordagens menos invasivas evitavam lesões pulmonares irreversíveis.

Ambientes complexos precisam constantemente de acompanhamentos e realinhamentos de rotas. Eles são os grandes desafios dos sistemas hospitalares.

Intervenções como reduzir os “erros evitáveis em operações previsíveis”, por si só, já limita a incidência dos “erros inevitáveis em processos complexos/incertos”. A interação imprevisível entre falhas evitáveis induz a situações de complexidade crescente e a erros associados à incerteza e complexidade.

Por fim, há o terceiro tipo de falha, os “erros de experimentação” relacionados aos processos de aprendizagem. Eles ocorrem, por exemplo, em testes para avaliar a validade de uma hipótese ou em experimentos inovadores que produzem também efeitos indesejados. Atualmente, há uma grande regulamentação no sistema de saúde para tratar de experimentos de novas drogas e procedimentos; mesmo assim, efeitos inesperados são frequentes.

Talvez a mais impactante droga da oncologia moderna é fruto de um erro de experimentação. O tamoxifeno, responsável por mudar o curso natural do câncer de mama, iniciou sua trajetória de estudos como anticoncepcional em animais de laboratório. Ao ser testado em humanos, o efeito foi um fracasso, houve aumento da fertilidade, e a droga foi quase abandonada ainda nos anos 60. Arthur Walpole resolveu testar o potencial antiestrogênico em casos de câncer de mama em animais e, anos depois, com estudos de outro pesquisador, V. Craig Jordan, o tamoxifeno foi aprovado em 1978 para o tratamento do câncer metastático de mama. Hoje é usada até mesmo para prevenção do câncer de mama.

Mittelstaedt enxerga erros sob uma perspectiva temporal: não há um único evento que leve à catástrofe, não há uma única falha fatal, mas uma sequência crescente de erros, falhas sequenciais, que levam ao erro fatal. Essas falhas se relacionam com três problemas típicos das organizações de saúde:

Primeiro problema é a falta de comunicação: a omissão de informações críticas, mesmo que de forma involuntária, acaba induzindo ao erro, especialmente a omissão em informar sobre medicamentos de alto risco, como insulina, anticoagulantes, opioides ou cloreto de potássio. O excesso de informação também induz ao mesmo tipo de problema, como a fadiga de alarmes dentro de UTIs: as pessoas podem ignorar, mudar os ajustes ou simplesmente silenciar alarmes insistentes dentro das unidades de cuidado.

As decisões apressadas ou enviesadas são também uma falha típica: há na medicina moderna um caso catastrófico que exemplifica o problema do viés cultural e a pressa em decidir. Há estudos demonstrando o maior índice de apendicite perfurada e suas complicações em jovens negros quando comparado a jovens brancos. Profissionais atendendo jovens negros demoram mais para solicitar exames ou procedimentos mais invasivos, tratando apenas como uma dor abdominal comum. Ainda assim, esses jovens recebem menos analgésicos que jovens brancos em geral. É um viés cultural do prestador de serviço que impacta de forma relevante e desigual o desfecho do cuidado, com 33% mais chances de apendicite perfurada em jovens e crianças negras do que brancas, e complicações tardias associadas a esse tratamento desigual.

E, por fim, a cultura da complacência e do hábito de subestimar pequenos problemas: tolerar pequenos erros ou subestimá-los pode também ser catastrófico. Incidentes isolados ou quase erros de pequeno impacto podem, na verdade, induzir uma cascata de erros levando a eventos catastróficos. São inúmeros os relatos de eventos pós-operatórios, como dor discreta ou febre baixa, que são, inicialmente, considerados de baixo impacto, mas que se desdobram em quadros graves de sepse e morte.

Tanto Edmondson quanto Mittelstaedt entendem que o remédio para a maioria desses problemas está na capacidade de se comunicar melhor e tratar abertamente de problemas, usando técnicas estruturadas para análise e gestão dos riscos. Mais que isso, os dois consideram que líderes que se comportam de forma humilde, reconhecendo suas próprias limitações e vieses culturais, conseguem administrar melhor os problemas de segurança, equidade e riscos em operações sob suas responsabilidades.

Organizações que lidam bem com erros estão mais atentas a essas falhas na operação. Tornar os erros e riscos visíveis aumenta a chance de reconhecimento e prevenção precoce. É necessário aceitar que cometer falhas é da natureza humana. E que há tipos diferentes de erros e métodos possíveis de mitigá-los. No entanto, isso demanda uma postura proativa da liderança; exige que o líder fale abertamente sobre falhas, sobre condições de vulnerabilidade e iniquidade, e estude suas causas dentro de um ambiente psicologicamente seguro, onde se pode falar abertamente sobre isso. A segurança psicológica é a forma mais consistente de tornar o ambiente de trabalho mais seguro, tanto  para profissionais quanto para pacientes.

Para que o próximo erro fatal não aconteça, é preciso falar de maneira aberta e humilde sobre o que aprendemos com a última falha. E ter em mente o pensamento do Dr. W. E. Deming, estatístico e pioneiro da melhoria contínua da qualidade: 94% dos erros são provocados pelo sistema e não pelos indivíduos. Uma pessoa boa será sempre derrotada por um sistema ruim.