Step 4 of 6

Pannes et erreurs


L’erreur, définie comme une performance qui dévie de l’idéal réalisable, est constitutive des systèmes complexes. Dans les mitochondries, par exemple, 1% des électrons (e-) s’échappe de la chaîne d’oxydo-réduction et produit des radicaux libres (peroxydes) dans le cytoplasme ; comme ces derniers peuvent oxyder et détruire de nombreux éléments de la cellule, ils sont immédiatement détoxifiés par des enzymes. Les pannes sont inévitables ; elles augmentent même avec la complexité. Un système fiable n’en est pas dépourvu, mais il les détecte et les corrige, comme le fait la cellule [2].
 
Les performances humaines sont limitées. Nous faisons des erreurs dans toutes nos activités, au point que les erreurs cognitives sont à l’origine de davantage d’accidents que les échecs techniques [3].
 
  • Erreur au cours d’une procédure simple :  0.3% 
  • Oubli d’un élément en l’absence de checklist : 1% 
  • Faute de calcul si on ne répète pas l’opération : 3% 
  • Oubli dans le contrôle du matériel avant une anesthésie : 10% 
  • Oubli et imprécision dans les remises de cas : 15%
  • Oubli en cas de stress comme lors d’une réanimation : 25%
     
Dans un cockpit, on relève une moyenne de 2 erreurs par vol, et en soins intensifs 1.7 erreur par patient et par jour [2,7]. En anesthésie, on estime le taux d'erreur à 1 sur 133 anesthésies (0.75%); les erreurs dans l'administration médicamenteuse sont fréquentes (3-10%) mais seul 1% d'entre elles mettent réellement le malade en danger [1,5]. Toutefois, elles sont en cause dans 7% des accidents mortels [4].
 
Notre cognition, notre mémoire et notre capacité à la gestion simultanée ne sont pas infinies, mais saturent à partir d’un certain niveau de sollicitation. Au-delà de ses limites, le taux d’erreur du cerveau devient très significatif. Nous perdons également dans l’efficacité de nos performances sous l’effet du stress, de l’accélération des opérations ou des contraintes externes (horaires à tenir, pressions hiérarchiques, etc). Ainsi, le taux d’erreur s’élève jusqu’à 25% dans les réanimations et les accidents d’aviation [3].
 
Il existe différentes techniques pour lutter contre les erreurs cognitives, à commencer par la sensibilisation des praticiens à ce problème, car ils ont tendance à surestimer leurs capacités dans ce domaine [6].
 
  • Limiter la tendance aux solutions intuitives ou réflexes en se forçant à une analyse systématique ; lors d’une échocardiographie, par exemple, on examine systématiquement et dans un ordre précis tous les plans et toutes les structures cardiaques au lieu de se précipiter sur la première anomalie qui saute aux yeux.
  • Passer en revue mentalement les diagnostics possibles à la recherche du pire scénario, non du plus probable ; ce procédé limite la tendance à la minimalisation.
  • Appliquer la "règle de trois", qui stipule que tout diagnostic doit être accompagné d’au moins trois autres possibilités ; ceci minimise les risques de fixation ou de solution réflexe, et réduit la tendance à interpréter les faits comme des confirmations de la première idée.
  • Examiner de manière critique le résultat de l’action entreprise sur la base du diagnostic posé pour juger s’il confirme ou infirme le bien-fondé de la décision prise ; il s’agit d’une boucle de rétroaction diagnostic → action → résultat → diagnostic, qui prévient l’enfermement dans un effet tunnel.
  • Pratiquer le rétrocontrôle à deux (double-check ) ; avant la CEC, par exemple, un praticien injecte l’héparine (chirurgien ou anesthésiste) et un deuxième en contrôle l’effet (perfusionniste).
     
Tenter d’éradiquer l’erreur ou porter un jugement moral sur celui qui se trompe n’est pas la réponse à ce problème. Il faut d’une part apprendre à gérer l’erreur et à développer une attitude de veille active, et d’autre part développer des systèmes robustes corrigeant les déviations. Car une erreur n’est pas une faute ; cette dernière, au contraire, implique la violation délibérée d’une règle établie ou la négligence dans l’accomplissement d’une tâche. Malheureusement, il est fréquent qu’une déviation par rapport aux prescriptions s’installe à long terme dans un système, au point de passer inaperçue jusqu’à ce qu’un accident la révèle (voir Analyse systémique, normalisation des déviances). 
 
 
Erreur humaine

Tout système présente un certain taux de panne. L’homme commet constamment un certain nombre d’erreurs, dont le taux augmente avec le stress, la fatigue, la désinvolture et la complexité des actions.
La violation des règles de bonne pratique est le facteur le plus souvent incriminé dans les accidents.
La sécurité repose sur une gestion des erreurs, qui sont inévitables : checklist, rétrocontrôle à deux, procédures de récupération, suivi rigoureux des algorithmes, vigilance constante.
 
 

© CHASSOT PG  CLAVADETSCHER F  Mars 2010, mise à jour Janvier 2012, Juillet 2017

 
 
Références
 
  1. GLAVIN RJ. Drug errors: consequences, mechanisms, and avoidance. Br J Anaesth 2010; 105:76-82
  2. HELMREICH RL. On error management: lessons from aviation. BMJ 2000; 320:781-5
  3. PARK K. Human error. In: SALVENDY G, ed. Handbook of human factors and ergonomics. New-York : Wiley, 1997, 150-73
  4. RAMIREZ AJ, GRAHAM J, RICHARDS MA, et al. Mental health of hospital consultants: the effects of stress and satisfaction at work. Lancet 347:724-728, 1996
  5. STAENDER SEA, MAHAJAN RP. Anesthesia and patient safety: have we reached our limits ? Curr Opin Anaesthesiol 2011; 24:349-53
  6. STIEGLER MP, RUSKIN KJ. Decision-making and safety in anesthesiology. Curr Opin Anaesthesiol 2012; 25:724-9
  7. WEINGART SN, WILSON RM, GIBBERD RW, HARRISON B. Epidemiology of medical error. BMJ 2000; 320:774-7