Step 1 of 6

Introduction

Les efforts déployés depuis trente ans pour améliorer la sécurité en anesthésie ont effectivement réduit le risque de mortalité et de dommages neurologiques irréversibles de 1.0% par an ; les accidents ont diminué de 30% au cours de cette période [1]. Ces améliorations sont liées à un changement de paradigme dans l’appréhension des responsabilités en cas d’accident, à une meilleure compréhension du comportement humain face aux situations imprévues et à l’adoption d’attitudes ou de techniques utilisées dans la gestion des systèmes à haute fiabilité comme l’aviation commerciale.
 
Pour adopter une attitude efficace face aux impératifs de sécurité, il est primordial de réaliser que toute action présente une certaine probabilité de mal tourner, et que tout système commet physiologiquement un certain nombre d’erreurs. De ce fait, la parade contre les accidents n’est pas de trouver un fautif à blâmer, mais de développer une vigilance de tous les instants et de maintenir de larges marges de sécurité. Ceci est d’autant plus d’actualité que l’on opère de plus en plus de personnes âgées et de patients très compromis, que les pressions du rendement sont de plus en plus fortes, et que les interventions chirurgicales deviennent de plus en plus complexes.
 
La sécurité d’un système ne s’améliore pas en prétendant qu’il est sûr, mais en analysant constamment ses erreurs et ses incidents [2]. L’anesthésiste, le patient et les machines forment un système complexe qui peut déraper à tout instant pour de multiples raisons ; en être conscient empêche de s’endormir sur la croyance que la sécurité peut être acquise une fois pour toute. Diminuer le risque d’une activité réclame une attitude proactive permanente. Quel que soit son taux de succès, le risque d’une opération reste le même à chaque fois. Le problème n’est pas tant dans l’erreur ou la défaillance que dans l’absence de prise en compte de celles-ci.
 
Les systèmes à haute fiabilité (High reliability organisations ou HROs) comme les centrales nucléaires, les plateformes pétrolières, les porte-avions ou l’aviation civile manipulent des technologies à risque où la moindre erreur entraîne des catastrophes, que l’opinion publique ne leur pardonne jamais. Il est évidemment hors de question d’apprendre à les gérer par l’expérimentation (trial and error). Il s’agit donc de prévoir tous les accidents possibles et de mettre au point des procédures de récupération dès qu’un incident survient. Comme la sécurité absolue n’est pas atteignable, ces organisations cultivent une recherche constante de fiabilité et une attention permanente aux moindres bévues [3]. Elles y parviennent de plusieurs manières.
 
  • Procédures hautement standardisées, utilisation constante de protocoles et de check-lists ;
  • Recherche active et surveillance constante des signaux qui peuvent être les précurseurs d’une défaillance avant que celle-ci ne survienne.
  • Culture d’entreprise axée sur la sécurité, à l’écoute des informations concernant le fonctionnement du système, et attentive au rôle de chaque individu dans le succès des opérations. 
  • Conscience de la fragilité intrinsèque de tout système, dont la probabilité de panne n’est jamais nulle, et maintien d’un niveau d’alerte élevé pour éviter d’être désarmé face à un événement inattendu.
  • Capacité à maintenir le fonctionnement général du système malgré le problème en cours, et à retrouver un équilibre fonctionnel en cas de stress continu ou d’incident critique (résilience élevée, grande marge de sécurité, redondance des circuits).
  • Structures décisionnelles flexibles assurant une gestion des crises par les experts concernés et non par le niveau hiérarchique.
  • Sélection des collaborateurs en fonction de leurs capacités humaines (gestion du stress, travail en équipe, faculté de collaborer et de communiquer, acuité décisionnelle, constance dans l’attention, leadership) autant que de leurs performances intellectuelles et techniques.
 
En quoi ces organisations sont-elles instructives pour l’anesthésie ? Certes, la médecine soigne des malades tous différents les uns des autres ; certes, les médecins cultivent le jugement individuel et la relation singulière avec leur patient ; certes, on ne peut écrire des procédures pré-établies pour toutes les circonstances. Mais dans une tour de contrôle comme dans une salle d’opération, on gère des systèmes complexes hautement organisés et interdépendants, où l’environnement se modifie constamment, où les risques d’accident sont permanents et où l’erreur peut rapidement devenir mortelle. De ce fait, le milieu hospitalier, avec un taux moyen de complications de 10% par patient, a beaucoup à apprendre de systèmes dont les performances ont un degré de fiabilité tel que les accidents ne surviennent qu’une fois toutes les 3-4 millions d’opérations. 
 
 
 
Erreurs

Tout système commet des erreurs de fonctionnement. Sa fiabilité tient à sa capacité à les repérer, à les corriger et assimiler leur probabilité dans ses actions. 
 
 
 

© CHASSOT PG  CLAVADETSCHER F  Mars 2010, mise à jour Janvier 2012, Juillet 2017
 
 
 
Références
 
 
  1. CHENEY FW, POSNER KL, LEE LA, et al. Trends in anesthesia-related death and brain damage. Anesthesiology 2006 ; 105 :1081-6
  2. MELLIN-OLSEN J, STAENDER S, WHITAKER DK, SMITH AF. The Helsinki Declaration on patient safety in anaesthesiology. Eur J Anaesthesiol 2010 ; 27 :592-7
  3. SURCLIFFE KM. High reliability organizations (HROs). Best Pract Clin Res Anaesthesiol 2011; 25:133-44