Depuis plusieurs décennies, nous tentons d’expliquer les circonstances d’un accident en regardant du coté du comportement du pilote. C’est ce qui a donné naissance au terme de « facteur humain ». En effet, nous savons que 80% des accidents sont survenus alors que l’appareil fonctionnait parfaitement. A la première lecture d’un compte rendu d’accident, on peut en effet se poser quelques questions bien simples. La formation a t’elle été faite correctement? Des procédures existaient elles? Les filtres habituels étaient ils en place : contrôles périodiques, briefings, vigilance d’un instructeur, minima d’heure de pratique, etc. Comment ne pas être tenté alors de regarder du coté du pilote pour voir ce qu’il a fait, n’a pas fait ou plus simplement mal fait.
Les pommes pourries existent-elles?
Avant d’amorcer le débat sur l’existence des pommes pourries, il est important de comprendre ce que signifie le terme « Pomme pourrie ». Un grand mathématicien New Yorkais explique de la façon suivante la théorie de la pomme pourrie : (Traduction) «… Les systèmes complexes fonctionneraient bien si ce n’était le comportement erratique de personnes non fiables (pommes pourries) qui en font partie; les erreurs humaines causent des accidents, les êtres humains sont les principaux facteurs contributifs à plus des deux tiers de ces accidents, et les pannes surviennent comme des surprises désagréables. Elles sont imprévues et n’ont pas leur place dans le système. Elles ne sont introduites dans le système qu’en raison du manque de fiabilité inhérent aux personnes… »!
Comme elle est décrite ci-dessus par ce mathématicien, l’application de cette théorie de la pomme pourrie constitue une bonne nouvelle enrichissante et elle est aussi très facile à comprendre. Si les erreurs opérationnelles sont attribuables à un rendement opérationnel médiocre ou stagnant, la solution devrait être simple : il faut identifier les personnes, leur retirer leur licence et mettre les contrevenants derrière les barreaux. Le problème avec cette conception, c’est que la plupart des acteurs en question (pilotes, mécaniciens, contrôleurs de la circulation aérienne, Présidents de club, etc.) sont très compétents et font bien leur boulot. La punition d’actes fautifs n’est pas un moyen de dissuasion, car les actes commis par les personnes visées étaient en réalité des exemples « d’actes adéquats ». Ils agissaient dans le meilleur intérêt, le leur sûrement, en général probablement. Mais ce faisant, ils ont commis une « erreur involontaire »; tel est le cas dans de nombreux accidents opérationnels ».
Il s’agit d’une conception plus complexe de la façon dont les êtres humains sont impliqués dans les accidents. Si les erreurs opérationnelles sont attribuables au rendement opérationnel de personnes très compétentes, comment expliquer le résultat et de quelle façon remédier à cette situation? C’est là le nœud de ce problème complexe. L’erreur n’est pas nécessairement attribuable au rendement de la composante humaine du système. Elle est plutôt attribuable au rendement du système dans son ensemble, ou en découle.
Est-ce que les pilotes parfaits peuvent fonctionner dans un système imparfait?
Parmi les conséquences que peut avoir un accident dans un système où la sécurité est un facteur déterminant, on compte la mort et/ou les blessures aux participants (passagers, autres). La société demande aux « exploitants » d’être surhumains et infaillibles, étant donné la responsabilité qu’ils ont. La société demande un comportement sans erreur. Cela est impossible, les être humains, les pilotes, les médecins, les avocats, les mécaniciens, etc. sont faillibles. Tout secteur où la sécurité est un facteur déterminant devrait avoir comme objectif d’apprendre de ses erreurs plutôt que de punir ceux qui les commettent. Punir ceux qui commettent des erreurs ne sert qu’à renforcer l’ancienne conception de l’erreur humaine; empêcher la vraie compréhension de la complexité du système et des voies possibles d’accroissement de la tolérance aux erreurs futures. Qui n’a pas connu un club, ou une compagnie ou la première mesure prise après un accident est la mise à pied du pilote, son passage en conseil de discipline et/ou son exclusion?
Le maillon faible ayant été éliminé, une procédure supplémentaire ayant été bien souvent mise en place, le système s’estime redevenu sûr ou fiable et l’activité continue!
Dans la majorité des accidents, des gens biens faisaient de leur mieux pour effectuer un bon travail dans un système imparfait. Les pilotes, les mécaniciens, les contrôleurs, doivent se conformer à des procédures rigoureuses. De plus, ils suivent une formation élaborée. En outre, la plupart de ces personnes sont directement visées par leurs propres actes, par exemple, un pilote se trouve à bord de l’aéronef qu’il pilote. Réprimander ces personnes et leur coller l’étiquette de pommes pourries alors qu’elles n’ont commis que des erreurs involontaires ne rendront le système que plus dangereux. De façon superficielle, cette voie à suivre peut sembler être ce que le secteur aéronautique fait depuis plus de vingt ans. Cependant, très souvent, nous avons utilisé des étiquettes différentes pour parler de pommes pourries, comme trop confiant, inattentif, distrait, ignorant, pour n’en citer que quelques-unes, qui ne visent qu’à punir la composante humaine. Le lecteur d’un compte rendu d’accident doit alors s’efforcer de chercher à comprendre pourquoi les actes du pilote étaient logiques pour lui au moment de l’accident. Il s’agit d’une tâche beaucoup plus difficile que prévu.
Le biaisement du jugement rétrospectif.
Vous est-il déjà arrivé de pousser une porte que vous auriez dû tirer ou tirer une porte que vous auriez dû pousser, et ce malgré la signalisation qui vous indiquait quoi faire ? Maintenant, envisagez cette même situation pendant un incendie, alors que la fumée gêne votre vision et votre respiration. Pourquoi n’avez vous pas su s’il fallait pousser ou tirer cette porte ? Il y avait pourtant une affiche et vous étiez déjà passé par là. Pourquoi n’avez vous pas été en mesure de l’ouvrir ? Supposez qu’en raison de ces difficultés, vous avez inhalé une trop grande quantité de fumée et avez été hospitalisé pendant quelques jours. Pendant votre séjour à l’hôpital, un enquêteur vous rend visite pour vous interroger. Il conclut que vous deviez être distrait pour ne pas avoir fait attention à l’affiche qui se trouvait sur la porte. Supposez qu’il ne comprend pas pourquoi vous n’avez pas ouvert la porte dans le bon sens alors que vous étiez déjà passé par là. En fin de compte, il conclut que cette porte ne posait pas de problème, mais que c’était plutôt votre comportement inadapté et inexplicable. Autrement dit, c’était de votre faute.
Dans cet exemple, l’enquêteur est victime du biaisement du jugement rétrospectif. Disposant d’une vue d’ensemble de vos actions et des événements, il voit, après coup, l’information à laquelle vous auriez dû vous inspirer. Il regarde le scénario de l’extérieur, en connaissant le dénouement de la situation. Le jugement rétrospectif est la capacité d’examiner de l’extérieur une série d’événements passés menant à un dénouement connu. Il permet un accès presque illimité à la nature véritable de la situation à laquelle les personnes ont été confrontées lors des événements. Il permet également de déterminer avec précision ce qui a échappé aux personnes et n’auraient pas dû leur échapper, ainsi que ce qu’elles n’ont pas fait et auraient dû faire.
En réfléchissant davantage au cas mentionné ci dessus, remettez vous en situation et tentez de comprendre pourquoi vous avez éprouvé de la difficulté à sortir. Dans ce cas particulier, il fallait tirer la porte pour sortir car il s’agissait d’une porte intérieure de couloir. Malgré la présence d’une affiche indiquant qu’il fallait tirer cette porte pour l’ouvrir, les poignées de cette porte étaient conçues pour qu’on les pousse (barre horizontale en travers de la porte). De plus, comme les portes étaient en temps normal bloquées en position ouverte grâce à des butées pour faciliter la circulation des personnes, vous aviez rarement à ouvrir cette porte au cours de vos va-et-vient quotidiens. Dans ce cas, il s’agissait d’une situation d’urgence, la fumée réduisait votre visibilité et il est probable que vous étiez quelque peu agité en raison de l’urgence réelle. En regardant la séquence d’actions et d’événements de l’intérieur même de la situation, on comprend pourquoi vous aviez de la difficulté à sortir en toute sécurité : 1) la conception de la porte, 2) l’habitude de laisser les portes ouvertes, 3) la visibilité réduite, 4) l’urgence réelle. Ces facteurs sont autant de facteurs contributifs et sous-jacents qui nous aident à comprendre pourquoi vous avez éprouvé de la difficulté.
Le jugement rétrospectif peut biaiser une enquête et mener l’enquêteur à des conclusions dont il sait maintenant qu’elles étaient importantes (étant donné le dénouement). Par conséquent, l’enquêteur peut juger les décisions et les actions des personnes en se fondant principalement sur le fait que ces personnes n’ont pas été en mesure de se servir de renseignements critiques à la prévention du dénouement. Sous l’effet du biaisement du jugement, un enquêteur regarde une séquence d’événements de l’extérieur en connaissant l’ensemble des événements et des actions ainsi que leur lien avec le dénouement.
La première étape pour réduire le biaisement du jugement rétrospectif consiste à s’efforcer de tirer les leçons de l’expérience des autres pour empêcher toute récidive. Si l’objectif d’une enquête est de tirer des leçons, il faut chercher à comprendre et à expliquer la perspective à partir de l’intérieur du tunnel, d’examiner le point de vue des personnes se trouvant dans le feu de l’action. L’enquêteur doit se garder de mélanger sa réalité à celle des personnes sur lesquelles il enquête.
A suivre…
Photographies reproduites avec l’aimable permission de Bombardier Inc.
Photo de planeur de Philippe Depêchy
Bons vols
Juste deux petits points de commentaire sur ton article très complet et passionant :
Le facteur humain existe depuis que l’ergonomie existe. En effet, si la dernière a pour définition “l’adaptation de l’outil de travail à l’acteur ou utilisateur”, le premier a la définition complémentaire suivante : “adaptation de l’acteur ou utilisateur à l’outil de travail”. C’est ainsi l’addition de ces concepts qui peut permettre de diminuer les erreurs ou les détecter pour mieux les rattraper.
Concernant le travail de l’enquêteur (l’étant moi même) dans ton très bon exemple j’apporte un petit correctif si tu le permets. Lors d’une analyse de faits et dans le cadre de l’amélioration de la sécurité aérienne, la seule question que se pose un enquêteur doit être : “qu’est ce que ce n’est pas ?”
Exemple : il faisait très beau et chaud lors de l’accident : les phénomènes de givre et conditions hivernales ne sont donc pas envisageables. Par contre le soleil a-t-il pu être contributif ?
Par contre, nous ne devons jamais nous dire “c’est ça”! En effet, les facteurs dits contributifs doivent être tous présentés dans le rapport avec un niveau possible d’occurence mais une conclusion attive (surtout lors du décès des acteurs) serait dangereuse et erronée.
espérant avoir complété ton article, j’attends avec intérêt la suite passionante pour moi et merci de l’avoir abordé.
Bonjour André,
j’apprécie la façon dont vous avez abordé le problème.
Je crois qu’un bon enquêteur de donne pas des conclusions hâtives sur l’occurrence des accidents. Mais les enquêteurs dans ce domaines doivent avoir le temps d’échanger des telles réflexions avec les autres.