Existem organizações que trabalham sim com Erro Zero.
Não consideram uma opção, ter apenas um erro se quer, mesmo que algumas vezes aconteça. As HRO mais conhecidas são as plantas nucleares, porta aviões, instalações de mísseis, fábricas de semicondutores, controladores aéreos e indústria da aviação em geral.
Nessas organizações os erros não são aceitáveis. O critério que trabalham é o de never events, em nenhuma circunstância esses eventos podem acontecer. Por outro lado, temos muitas indústrias que trabalham com os lineamentos 6 Sigma, ou seja, conseguir menos de 4 erros por milhão de eventos ou produtos. Na saúde temos 10% de Eventos Adversos (EA) nos atendimentos, ou seja, erros de procedimento com dano, dos quais 50% são evitáveis. Este indicador é dado pela Organização Mundial da Saúde e Anvisa. Mas tomando apenas 10% e 50% chegamos a 50.000 erros por milhão, muito longe dos 4 por milhão das empresas 6 Sigma, ou de 12 acidentes por milhão de voos da indústria aeronáutica comercial. Embora a medicina seja uma ciência muito mais complexa que a aviação, quando entramos na área de erros humanos, de sistemas, e na disciplina de segurança, os valores se fazem comparáveis.
Temos que enfatizar que 95% ou mais do EA, são causados pelas deficiências do sistema e não por erros humanos. Então, podemos aproveitar dos critérios de segurança que outros adaptaram para chegar a números muito menores.
Depois de visitar hospitais em mais de 20 países, encontramos uma grande disparidade no nível de segurança entre eles.
- Muitos países, ainda não falam de Segurança do Paciente
- Em diversos lugares tirar o cloreto de potássio das enfermarias dos hospitais e deixá-los apenas na farmácia, uma tarefa simples, se converte em algo heroico
- Muitas embalagens de medicamentos são iguais e ninguém ajuda mudar isso
- A tecnologia básica como a leitura por código de barras falta em muitos hospitais
- Os 30% de desperdício nos hospitais impedem o investimento em automatização
- A falta de um gerente sênior de Qualidade nos hospitais
- Ainda se aplica uma política da culpabilidade, para com o profissional da saúde
- O gradiente de autoridade entre os funcionários freia os comentários, sugestões e as alertas
- Os governos até compram equipamentos caros, mas investem pouco no sistema básicos como o sistema sanitário da população (água e esgoto)
- A saúde é um direito universal em muitos países e a prestação está a cargo dos governos. Então falta investimento por falta de prioridade
- O investimento em prevenção e educação da saúde em geral já é pouco, para se reduzir os gastos
- Não existe a obrigatoriedade de outros setores em ajudar. Por exemplo: os laboratórios, as indústrias de alimentação e a educação nas escolas.
Sendo assim, falta muito para melhorar o sistema de Saúde, e a primeira mudança que temos que fazer é a de Atitude e da preocupação pelo que está passando. Na mudança de atitude, temos uma crescente preocupação pela incidência de processos cognitivos sobre os resultados. Em particular fala-se da técnica de plena consciência.
O Sistema Opuspac oferece e-books gratuitos para realizar administração e medicamentos em modo consciente. Veja no link: https://www.opuspac.com/br/downloads/
Temos sintetizado a seguir, o repertório de políticas e critérios organizativos das HRO:
- Preocupação com as falhas
Existe uma consciência que as falhas podem acontecer. Errar é humano e é quase uma condição natural que podemos falhar. Os sistemas automáticos, com seus algoritmos, não interpretam todas as situações da realidade e manejam apenas as situações lógicas que podem acontecer. A incidência de vários fatores simultâneos nos leva a resultados não previstos. As HRO focam no estudo dos pequenos erros e dos quase erros, com a mesma determinação, como se fossem grandes falhas. A gestão está orientada a estudar as falhas, tanto como a manter a produtividade.
- Relutância a simplificar as interpretações
Num sistema complexo a simplificação é um erro metodológico. De nenhuma maneira podemos dar uma resposta simples, ou simplista, a um problema acontecido dentro de um sistema complexo. Devemos considerar as limitações impostas pelo contexto: nosso sistema mental, as limitações da estrutura física, do pensamento lógico, quais partes da totalidade não estamos vendo.
- Sensibilidade para as Operações
Having the buble é um termo utilizado na Marinha norte-americana para definir quando um comandante tem a percepção da integralidade dos elementos da realidade complexa do entorno, junto com a dinâmica operacional. É perceber a totalidade, através de instrumentos integrados com a ação humana. Ter a consciência sobre as possíveis más interpretações, quase erros, sobrecargas do sistema, distrações, surpresas, sinais confusos, interações e demais.
- Compromisso com a Resiliência
Refere-se a uma antecipação dos possíveis problemas, inclusive com alguma simultaneidade e treinamento para resolver a situação, frente a eles. Resiliência aqui refere-se a superar as surpresas que alguns incidentes podem produzir e resistir, estar preparados para o erro, aceitar a inevitabilidade do erro e preparar-se para a luta quando o incidente chegar.
- Estruturas hierárquicas mais horizontais
Se estuda que em instituições com forte orientação hierárquica os erros se estendem mais rapidamente. Isto acontece em maior medida quando o incidente se inicia nos mais altos níveis organizativos do que nos baixos. Ter uma organização que trabalha mais no consenso, ajuda a prevenir estes problemas. Há definido o termo “anarquia organizada” como um meio de controle.
A responsabilidade de resolver um incidente sobressalta mais nos especialistas do tema, do que nos chefes hierárquicos. O fato de estar presente no momento do incidente também determina quem pode tomar decisões. Uma estrutura hierárquica definida, porém, mais frouxa, é uma característica desejada.
Uma organização é confiável quando, diante de uma flutuação anormal das condições internas e externas do sistema, mantém um resultado dentro do desejado.
Ter resultados desejáveis quando os parâmetros de ingresso estão controlados não é suficiente. A HRT, High Reliable Theory (Charles Perrow) define que não é a estabilidade das entradas o que nos dará a estabilidade dos resultados.
Assim a conclusão é:
a) Os erros vão a acontecer e é preciso estar preparado.
b) Seu objetivo deve ser de erro zero.
Nosso modelo de segurança preferido é sempre ter dois sistemas trabalhando simultaneamente, como o sistema informatizado, que através de algoritmos predefinidos maneja com automatismo todas as operações e o controle humano, que supervisiona passo a passo todos os acontecimentos para corrigir e melhorar a segurança.