Approche des facteurs humains en prévention des risques au travail
Ecole d’été "Gestion Scientifique du risque "
6/10 septembre 1999
ALBI - FRANCE
Source de l'article : Analyse du risque industriel
Quand les organisateurs de cette rencontre m'ont demandé de présenter l'approche des facteurs humains en hygiène/sécurité du travail, ou plutôt en prévention des risques au travail, j'envisageais deux façons de concevoir mon exposé :
Je vous propose donc le plan général suivant :
Dans une première partie, je ferai un historique condensé de la conception des facteurs humains dans la genèse des accidents du travail, ce qui permettra au passage d'éclairer quelques approches méthodologiques de l'analyse scientifique de la sécurité au travail concernant les facteurs humains. Je m'inspirerai, pour cela, de papiers de base concernant cet historique (Monteau et Pham, 1987 ; Cuny, 1985) où vous pourrez retrouver facilement les détails sur lesquels je passerai.
Dans une deuxième partie, je rappellerai comment l'ergonome et le psychologue comprennent la notion de risque et de gestion des risques, comment ils envisagent la place et le rôle de l'Homme dans le système de production, et comment ils l'analysent, en particulier sous l'angle de l'erreur humaine.
Enfin, j'essaierai de conclure en posant les termes d'un débat qui pourrait s'ouvrir sur le thème de ces journées.
Concernant la première partie de mon exposé, je simplifierai cet historique rapide en rappelant quatre étapes de prise en compte des facteurs humains dans la compréhension et dans la gestion des risques du travail. Ces quatre étapes sont :
Les causes techniques prédominent, leur lien causal et temporel avec l'accident étant le plus souvent évident. En même temps, les courants scientifiques, très déterministes, de l'époque renforcent la recherche de lien de cause à effet. De même, l'organisation scientifique du travail, sous l'influence des analyses tayloriennes, fait émerger l'annonce d'une dichotomie homme/machine qui aboutit à une classification des accidents selon deux classes de facteurs : facteurs techniques/facteurs humains.
Il apparaît, en effet, rapidement, que certains accidents ne peuvent être expliqués que par des facteurs tehcniques. De plus, au même moment, et les sciences humaines s'intéressant à l'homme au travail en tant qu'objet d'analyse, tout un courant de recherches sur la genèse des accidents, recherches qui sont essentiellement le fait de médecins et de psychologues, cherchent à mettre en évidence le rôle des facteurs physiologiques et psychologiques dans cette genèse.
Tout un courant de recherche (de 1900 à 1950) va aboutir à la notion de "prédisposition aux accidents" que l'on peut simplifier en deux grandes notions et présenter en deux grandes étapes.
La première étape a consisté à chercher à montrer statistiquement qu'un petit nombre d'individus subit la majorité des accidents. Certains travaux mettent effectivement en évidence qu'il existe bien des groupes de pluri-accidentés.
On a alors cherché (c'est la 2ème étape et la 2ème notion) le rôle de variables individuelles, telles que l'âge, le sexe, la fatigabilité, l'intelligence, la personnalité, ou encore l'attitude à l'égard du risque, la fameuse "prise de risque". On peut affirmer que, si ces facteurs peuvent jouer un rôle, ils ne peuvent être considérés, en soi, comme des facteurs prépondérants.
De plus, certaines analyses ont bien montré que ces groupes apparemment pluri-accidentés se renouvellent constamment. Autrement dit, une personne peut traverser des périodes pendant lesquelles certains facteurs situationnels qui peuvent être générateurs d'accidents. Il ne s'agirait plus alors de facteurs individuels ou personnels, mais de déterminants liés au contexte familial, professionnel, ou social, ce qui a orienté les travaux vers la recherche des facteurs psycho-sociaux de l'insécurité au travail.
Comme la conception techniciste de l'accident, une vision uniquement centrée sur l'Homme de la causalité des accidents, non seulement est réductrice de la réalité, mais surtout n'a abouti, le plus souvent, qu'à accuser les victimes plus qu'à renouveler la gestion des risques On peut néanmoins retenir qu'elle a permis d'introduire, en prévention, des mesures de formation, d'information, voire d'affectation, qui font maintenant partie des outils de gestion de la sécurité et de la santé au travail.
Les critiques adressées à la conception unicausale de l'accident ont amené un changement de point de vue du travers de l'apparition des conceptions multicausales de l'accident. En effet, l'idée s'est alors imposée, après les années 50, que l'accident est un événement né de l'interaction entre l'opérateur et tous les autres composants de la situation de travail.
Pour certains auteurs (Heinrich, 1950), on peut décrire une séquence logique qui partant de l'hérédité et du milieu, passant par l'inaptitude personnel, amène, par un acte dangereux, à l'accident et à la blessure.
Pour d'autres (Raymond, 1952), la conjonction du facteur technique et du facteur humain est nécessaire pour qu'il y a accident, le plus souvent consécutif au "geste néfaste" de la victime. Mais cette conception laisse complètement de côté les autres éléments de la situation de travail (l'environnement technique et social en particulier).
C'est précisément pour prendre en compte ces aspects que d'autres auteurs, et en particulier ceux s'inscrivant dans la perspective des recherches de l'école anglaise de psychanalyse de la "Tavistoc clinic", ou des travaux du sociologue Moreno, considèrent que le groupe de travail, en tant qu'entité psychosociale, est un paramètre important de la situation.
On associe alors la sécurité à la cohésion du groupe par exemple, ou à son "équilibre sociométrique" et, inversement, les risques, à l'absence de cohésion du groupe, ou à l'absence d'un leader reconnu (ex. Jenkins, 1948, sur les escadrilles de l'aéronavale américaine).
Ce développement des conceptions multicausales de la genèse de l'accident a été important car il a permis la mise en œuvre d'hypothèses (en particulier concernant les facteurs humains et les facteurs psychosociaux), mais aussi de concepts et de méthodes qui ont été déterminants pour le développement ultérieur des recherches.
Ces éléments déterminants peuvent être résumés dans une conception globale de l'accident qui souligne :
Vers 1960, suite aux travaux du Tavistoc Institute et à ceux réalisés dans le cadre de la CECA, et en particulier ceux de Faverge, l'entreprise est considérée comme un système sociotechnique finalisé et organisé en éléments interdépendants. L'accident est alors considéré comme un symptôme de dysfonctionnement du système, et non plus comme un phénomène isolé, circonscrit. L'investigation ne se centre plus alors exclusivement sur l'accident, mais s'élargit au fonctionnement de l'ensemble du système.
Dans ce contexte, l'ergonomie des systèmes, prônée par Faverge, en opposition à l'ergonomie "classique" (c'est-à-dire du poste de travail) et en s'appuyant sur une théorie de la fiabilité des systèmes. C'est dans ce cadre que Faverge développe les premiers éléments d'une analyse systémique du travail, et de l'accident comme la conséquence d'une récupération d'incident.
Dernier courant que je voudrait évoquer est le courant fiabiliste qui s'est développé depuis les années 80 sous la double influence de l'évolution technologique et de l'évolution de la façon dont les sciences humaines ont abordé le problème de l'accident. Cette évolution technologique se caractérise par l'automatisation et l'informatisation, mais aussi par la prééminence des tâches de contrôle, de surveillance, de maintenance. Par ailleurs, la complexité des systèmes est accrue, soit par l'augmentation du nombre d'interaction, soit par l'augmentation du degré de dépendance d'un élément par rapport à l'autre. En même temps, et paradoxalement, les systèmes de sécurité eux-mêmes (c'est-à-dire les systèmes destinés à avoir un rôle de protecteur contre les défaillances connues), sont aussi les points faibles des systèmes complexes. Cette surenchère des barrières défensives rend ces systèmes non seulement fragiles, mais aussi, de plus en plus difficiles à comprendre, et donc difficilement maîtrisables, pour ceux qui sont chargés de les gérer, de les conduite et de les entretenir. En effet, en période "normale", le système peut dans le meilleur des cas, être géré de façon automatisée. Mais certains dysfonctionnements, s'ils exigent une intervention humaine, et surtout s'ils sont rares, vont trouver un opérateur ayant perdu son expertise, un opérateur peu informé sur les déroulements antérieurs, et qui doit, de plus, prendre une décision dans l'incertitude et sous contrainte temporelle : toutes les conditions sont alors réunies pour augmenter l'apparition d'une "erreur humaine".
C'est cette évolution qui a été à l'origine d'un courant de recherche dit "fiabiliste" et plus spécifiquement orienté vers la "fiabilité humaine". Le système de production (ou de travail, ou de services) est conçu comme un ensemble d'éléments en interaction et parmi ces éléments, l'homme est un composant parmi les autres. Donc, de même que l'on essaie d'évaluer la fiabilité des composants techniques, on va chercher à évaluer la fiabilité de l'opérateur humain, espérant ainsi augmenter la fiabilité globale du système.
Ce courant a donc donné lieu à des nombreux travaux sur la fiabilité humaine, l'erreur humaine, travaux fertilisés par le développement, en parallèle, des conceptions du fonctionnement humain dans les systèmes de travail.
Il est intéressant ici de rappeler succinctement les étapes de l'évolution de ce qu'on pourrait appeler les théories explicatives de l'erreur.
Le premier courant clairement identifiable dans son utilisation par l'ergonomie, est issu de la théorie des communications de Shannon et Weaver (1949) appliquée à l'Homme, conçu comme un système de traitement de l'information. Dans ce cadre, les capacités limitées de traitement de l'information de l'Homme (capacités limitées de détection, de transmission, de stockage) permettent d'expliquer les erreurs comme le résultat d'un manque de ressources.
S'il y a erreur, c'est parce que :
On peut considérer, pour simplifier, que les conceptions qui expliquent l'erreur par une baisse de vigilance, ou par le stress, par une altération des capacités fonctionnelles, ou de façon plus générale, par un déséquilibre entre l'exigence de la tâche et la ressource pour l'effectuer, entrant dans cette conception.
Un autre étape importante a été inspirée par les travaux sur la résolution de problème (Newell et Simon, 60-70), dans une conception selon laquelle les étapes de raisonnement menant à la résolution d'un problème sont formalisables sous la forme d'un algorithme optimal. L'erreur est donc à rechercher dans une défaillance à une étape du raisonnement menant à la solution. L'intérêt de cette approche est de s'intéresser au fonctionnement humain sous son aspect de raisonnement et non plus seulement sous son aspect réactif passif. Ces travaux ont fortement influencé certaines conceptions récentes. Leurs limites sont que cette conception ne tient pas compte de l'aspect significatif des informations traitées. Mais surtout, elle tient insuffisamment compte du fait que, dans les situations quotidiennes de résolutions de problème :
Ce qu'il faut souligner, dans cette conception, c'est le paradoxe apparent qui consiste, pour la représentation mentale en question, à la fois à permettre des réponses rapides, des solutions ajustées, parfois automatisées et en même temps et pour les mêmes raisons, d'être source de dysfonctionnement. On voit donc déjà que l'erreur n'est plus, à strictement parler, un défaut, un dysfonctionnement, puisque sa manifestation est témoignage d'un processus d'adaptation.
Autour des années 80, Jens Rasmussen (1986), reprenant les conceptions des psychologues, schématise les fonctions de prise d'information et de décision en prenant en compte la nature plus ou moins automatisée du raisonnement. Il distingue 3 niveaux :
Enfin, une conception récente, que Mazeau a évoquée (Amalberti, 1996), élaborée à l'occasion de travaux sur la conduite des systèmes à risque, consiste à considérer que le mode de fonctionnement dans lequel l'opérateur humain est le plus à l'aise est un mode anticipatif : l'opérateur humain, pour éviter d'être en situation de surprise, vérifie constamment, plus ou moins explicitement) des hypothèses, contrôle des attentes.
Cette activité de contrôle de résultats attendus, voire de contrôle de l'activité elle-même, fonctionne à plusieurs niveaux :
Après avoir vu succinctement cette évolution de la prise en compte des facteurs et ces conceptions de l'erreur qui, pendant ces dernières décennies en ont été le centre, je vous propose que l'on envisage, toujours sous l'angle des facteurs humains, la notion de gestion des risques.
Dans cette partie, nous préciseront d'abord la notion de risque. Puis on cherchera à préciser à nouveau la place de l'Homme et son rôle dans le système en soulignant l'importance de la connaissance de l'activité.
Enfin, je rappellerai quelques modèles utilisés ces dernières années dans la compréhension et l'analyse de dysfonctionnements dans lesquels des hommes sont impliqués.
Je rappellerai d'abord une opposition bien connue des ergonomes puisqu'elle est l'expression de l'un d'entre eux : François Daniellou. Pour Daniellou (1993), une première approche possible des risques est de considérer l'homme comme une victime d'un "flux de danger" et de chercher à décrire et expliquer les facteurs de risques : on essaie alors de catégoriser les risques (physiques, chimiques, électriques…) et on tente d'en diminuer la fréquence, ou d'interposer des "écrans". Dans ce cas, la gestion des risques va consister à faire une expertise pour les détecter et à mener une action technique et/ou prescriptive pour les éviter. La deuxième approche consiste à voir l'homme comme un "acteur des interactions qui constituent l'organisation du travail". On est alors dans une vision qui privilégie la compréhension du travail réel, la connaissance de l'activité, et qui doit prendre en compte la complexité des facteurs qui déterminent la façon dont l'activité est réalisée et les conséquences en matière de santé/sécurité.
On voit donc que le fait de considérer l'Homme comme acteur va changer le point de vue à adopter en gestion des risques, en particulier cela va mettre en exergue le rôle de la connaissance des activités (sous différentes formes : modes opératoires, stratégies…).
En effet, les dysfonctionnements et en particulier l'accident ne peut être directement le fait des seuls facteurs techniques amont, et leur compréhension exige une connaissance de l'activité de l'homme dans le système. La connaissance de l'activité devient alors un des éléments de la compréhension et de la gestion des risques.
Le risque peut encore être regardé de deux manières distinctes (Amalberti, 1996) :
Le risque "interne" correspond, au contraire, au risque subjectif, propre à chaque individu, qui peut être décomposé en :
Les techniques de prévention des risques internes, propres à l'opérateurs, contrôlent un niveau de risque acceptable, pour une performance acceptable. Le risque n'est plus acceptable s'il échappe au contrôle de l'opérateur, c'est-à-dire quand l'opérateur considère, par anticipation ou par observation, qu'il n'est plus capable d'annuler le risque par une action qu'il connaît. Dans ce cas, ce n'est plus la fréquence objective qui compte, mais la saillance des incidents en mémoire chez l'opérateur qui devient alors un élément déterminant de la stratégie de prévention.
Je voudrais conclure en vous présentant très schématiquement le modèle de gestion des risques que Rasmussen a présenté récemment dans la revue Safety Science en 1997 (Rasmussen, 1997).
Ce modèle est intéressant, me semble-t-il, dans le contexte de cette Ecole d'Eté, car il ne se limite pas au niveau cognitif, comme ceux que je vous ai rappelé tout-à-l'heure. Au contraire, Rasmussen essaie, dans son approche récente de modéliser la gestion du risque à un niveau macroscopique du système considéré, voire au niveau de la société toute entière.
Selon Rasmussen, l'analyse de plusieurs catastrophes (Bhopal, Zeebrugge, ou Tchernobyl par exemple) met en évidence que ces évènements ne résultent pas de la combinaison aléatoire d'évènements indépendants, mais d'une dérive systématique du comportement global du système vers l'accident sous l'influence d'une pression, d'une contrainte en faveur du rapport coût/efficacité dans un contexte (dans un environnement) fortement compétitif.
Dans cette situation, Rasmussen considère comme fondamental la prise en compte de l'interaction des conséquences des décisions prises par les différents acteurs du système, dans leur contexte habituel de travail, chacun des acteurs ayant de fortes chances de subir la même exigence de "tension liée à la compétitivité".
Prenant l'exemple de l'accident du Ferry à Zeebrugge, il montre que chaque acteur/décideur du système (en l'occurrence chaque personnel du navire, mais aussi les décideurs en amont) a cherché, localement, pour son sous-système, donc à des moments différents, et à des pôles de décisions différents, chaque acteur donc a cherché à optimiser ce rapport coût/efficacité, préparant ainsi le stade de dysfonctionnement grave. Il considère parallèlement que personne ne peut avoir une représentation complète de l'état du système, et que chacun juge du bien-fondé de sa décision en considérant que les défenses, les parades prises par les autres, le sont effectivement. Il fait donc l'hypothèse de l'existence, dans un système, d'une dérive naturelle des activités vers des limites de performance acceptables. Il ajoute à cela le fait que le comportement humain est déterminé à la fois par ses objectifs et par les contraintes qui lui sont imposées pour que la performance soit acceptable. Ces limites de performances appartiennent à plusieurs domaines : limites de charge de travail acceptables (pour les opérateurs), limites de coût, risques de défaillance, etc. Dans les systèmes bien conçus et "sécurisés", de nombreuses précautions sont prises pour définir clairement ces limites. C'est la stratégie de la construction de barrières, de "défenses". Un des problèmes est que, lorsque ces défenses sont construites, la violation localement d'une de ces défenses n'a pas toujours d'effet immédiat et visible. Dans cette situation, les limites d'un comportement sûr d'un acteur particulier dépend des violations possibles des autres acteurs. C'est ce qui peut expliquer que dans ce cas les défenses elles-mêmes dégénèrent, dérivent avec le temps, en particulier quand la pression, la contrainte visant à augmenter l'efficacité et à diminuer le coût, existent.
Alors une variation habituelle du comportement d'un des acteurs, même si cette variation est acceptable dans le système "nominal" peut amener un dysfonctionnement grave non prévisible.
De cette conception, Rasmussen déduit que la gestion du risque doit être considérée comme une fonction de contrôle focalisée sur le maintien d'un processus dangereux donné à l'intérieur de limites assurant la sécurité. Ce qui implique :
Et pour illustrer cela, je vous laisserai méditer sur cette question que se pose le cueilleur de cerises du schéma suivant :
Bibliographie
Cet article provient de PREVINFO
L'url pour cet article est :
https://www.previnfo.net/sections.php?op=viewarticle&artid=19