💬 Articles les plus lues
  • Le diagramme d'Ishikawa 275 145 Fois
  • Le logigramme 256 811 Fois
  • Le QQOQCP 201 494 Fois
  • Méthodes HAZOP et What if 123 861 Fois
  • Le diagramme de PARETO 114 976 Fois
  • L'arbre de défaillance 100 476 Fois
  • Méthode d’analyse de risques MOSAR 93 767 Fois
  • Le vote pondéré 89 541 Fois
  • La matrice de compatibilité 74 176 Fois
  • L'arbre des causes 72 798 Fois

  • 🗺 Carte membres
    Index / Gestion des Risques / Facteur Humain et Sciences Sociales

    Approche des facteurs humains en prévention des risques au travail -

    (4515 mots dans ce texte ) -  lu : 44393 Fois


    Approche des facteurs humains en prévention des risques au travail

    Michel NEBOIT
    INRS - Adjoint au Chef du Département Homme au Travail
    Responsable du Laboratoire Ergonomie et Psychologie Appliquées à la Prévention

    Ecole d’été "Gestion Scientifique du risque "
    6/10 septembre 1999
    ALBI - FRANCE

    Source de l'article : Analyse du risque industriel

    Quand les organisateurs de cette rencontre m'ont demandé de présenter l'approche des facteurs humains en hygiène/sécurité du travail, ou plutôt en prévention des risques au travail, j'envisageais deux façons de concevoir mon exposé :

    - soit développer un point précis, un thème précis en le détaillant et en prenant des exemples,
    - soit faire une sorte de panoramique de la prise en compte des facteurs humains dans la prévention des risques professionnels.
    C'est finalement cette deuxième solution qui m'est apparue la plus pertinente à la fois compte tenu des autres présentations, et compte tenu du public que vous êtes, c'est-à-dire majoritairement des spécialistes des sciences dites dures, si on les oppose aux sciences de l'Homme, dites "molles".

    Je vous propose donc le plan général suivant :

    Dans une première partie, je ferai un historique condensé de la conception des facteurs humains dans la genèse des accidents du travail, ce qui permettra au passage d'éclairer quelques approches méthodologiques de l'analyse scientifique de la sécurité au travail concernant les facteurs humains. Je m'inspirerai, pour cela, de papiers de base concernant cet historique (Monteau et Pham, 1987 ; Cuny, 1985) où vous pourrez retrouver facilement les détails sur lesquels je passerai.

    Dans une deuxième partie, je rappellerai comment l'ergonome et le psychologue comprennent la notion de risque et de gestion des risques, comment ils envisagent la place et le rôle de l'Homme dans le système de production, et comment ils l'analysent, en particulier sous l'angle de l'erreur humaine.

    Enfin, j'essaierai de conclure en posant les termes d'un débat qui pourrait s'ouvrir sur le thème de ces journées.

    Concernant la première partie de mon exposé, je simplifierai cet historique rapide en rappelant quatre étapes de prise en compte des facteurs humains dans la compréhension et dans la gestion des risques du travail. Ces quatre étapes sont :

    - la conception unicausale de l'accident,
    - la conception multicausale de l'accident,
    - la dimension systémique de l'explication de l'accident,
    - les approches fiabilistes.
    Comme le soulignent Monteau et Pham (1987), à la fin du 19ème siècle, en plein machinisme industriel, on maîtrise mal les risques générés par les nouveaux modes de production, les causes directes de nombreux accidents sont facilement attribuables à des procédés techniques peu fiables, à des machines sans protections, à des techniques mal maîtrisées.

    Les causes techniques prédominent, leur lien causal et temporel avec l'accident étant le plus souvent évident. En même temps, les courants scientifiques, très déterministes, de l'époque renforcent la recherche de lien de cause à effet. De même, l'organisation scientifique du travail, sous l'influence des analyses tayloriennes, fait émerger l'annonce d'une dichotomie homme/machine qui aboutit à une classification des accidents selon deux classes de facteurs : facteurs techniques/facteurs humains.

    Il apparaît, en effet, rapidement, que certains accidents ne peuvent être expliqués que par des facteurs tehcniques. De plus, au même moment, et les sciences humaines s'intéressant à l'homme au travail en tant qu'objet d'analyse, tout un courant de recherches sur la genèse des accidents, recherches qui sont essentiellement le fait de médecins et de psychologues, cherchent à mettre en évidence le rôle des facteurs physiologiques et psychologiques dans cette genèse.

     

    Tout un courant de recherche (de 1900 à 1950) va aboutir à la notion de "prédisposition aux accidents" que l'on peut simplifier en deux grandes notions et présenter en deux grandes étapes.

    La première étape a consisté à chercher à montrer statistiquement qu'un petit nombre d'individus subit la majorité des accidents. Certains travaux mettent effectivement en évidence qu'il existe bien des groupes de pluri-accidentés.

    On a alors cherché (c'est la 2ème étape et la 2ème notion) le rôle de variables individuelles, telles que l'âge, le sexe, la fatigabilité, l'intelligence, la personnalité, ou encore l'attitude à l'égard du risque, la fameuse "prise de risque". On peut affirmer que, si ces facteurs peuvent jouer un rôle, ils ne peuvent être considérés, en soi, comme des facteurs prépondérants.

    De plus, certaines analyses ont bien montré que ces groupes apparemment pluri-accidentés se renouvellent constamment. Autrement dit, une personne peut traverser des périodes pendant lesquelles certains facteurs situationnels qui peuvent être générateurs d'accidents. Il ne s'agirait plus alors de facteurs individuels ou personnels, mais de déterminants liés au contexte familial, professionnel, ou social, ce qui a orienté les travaux vers la recherche des facteurs psycho-sociaux de l'insécurité au travail.

    Comme la conception techniciste de l'accident, une vision uniquement centrée sur l'Homme de la causalité des accidents, non seulement est réductrice de la réalité, mais surtout n'a abouti, le plus souvent, qu'à accuser les victimes plus qu'à renouveler la gestion des risques On peut néanmoins retenir qu'elle a permis d'introduire, en prévention, des mesures de formation, d'information, voire d'affectation, qui font maintenant partie des outils de gestion de la sécurité et de la santé au travail.

    Les critiques adressées à la conception unicausale de l'accident ont amené un changement de point de vue du travers de l'apparition des conceptions multicausales de l'accident. En effet, l'idée s'est alors imposée, après les années 50, que l'accident est un événement né de l'interaction entre l'opérateur et tous les autres composants de la situation de travail.

    Pour certains auteurs (Heinrich, 1950), on peut décrire une séquence logique qui partant de l'hérédité et du milieu, passant par l'inaptitude personnel, amène, par un acte dangereux, à l'accident et à la blessure.

    Pour d'autres (Raymond, 1952), la conjonction du facteur technique et du facteur humain est nécessaire pour qu'il y a accident, le plus souvent consécutif au "geste néfaste" de la victime. Mais cette conception laisse complètement de côté les autres éléments de la situation de travail (l'environnement technique et social en particulier).

    C'est précisément pour prendre en compte ces aspects que d'autres auteurs, et en particulier ceux s'inscrivant dans la perspective des recherches de l'école anglaise de psychanalyse de la "Tavistoc clinic", ou des travaux du sociologue Moreno, considèrent que le groupe de travail, en tant qu'entité psychosociale, est un paramètre important de la situation.

    On associe alors la sécurité à la cohésion du groupe par exemple, ou à son "équilibre sociométrique" et, inversement, les risques, à l'absence de cohésion du groupe, ou à l'absence d'un leader reconnu (ex. Jenkins, 1948, sur les escadrilles de l'aéronavale américaine).

    Ce développement des conceptions multicausales de la genèse de l'accident a été important car il a permis la mise en œuvre d'hypothèses (en particulier concernant les facteurs humains et les facteurs psychosociaux), mais aussi de concepts et de méthodes qui ont été déterminants pour le développement ultérieur des recherches.

    Ces éléments déterminants peuvent être résumés dans une conception globale de l'accident qui souligne :

    - la multicausalité (multiplicité des facteurs) ;
    - les relations dynamiques entre facteurs et plus seulement un déterminisme causal mécanique ;
    - et surtout la nécessité d'analyser le travail habituel pour comprendre l'accident (ponctuel).
    L'appréhension multicausale de l'accident a été la base sur laquelle une nouvelle conception a pu être édifiée, une conception systémique de l'accident.

    Vers 1960, suite aux travaux du Tavistoc Institute et à ceux réalisés dans le cadre de la CECA, et en particulier ceux de Faverge, l'entreprise est considérée comme un système sociotechnique finalisé et organisé en éléments interdépendants. L'accident est alors considéré comme un symptôme de dysfonctionnement du système, et non plus comme un phénomène isolé, circonscrit. L'investigation ne se centre plus alors exclusivement sur l'accident, mais s'élargit au fonctionnement de l'ensemble du système.

    Dans ce contexte, l'ergonomie des systèmes, prônée par Faverge, en opposition à l'ergonomie "classique" (c'est-à-dire du poste de travail) et en s'appuyant sur une théorie de la fiabilité des systèmes. C'est dans ce cadre que Faverge développe les premiers éléments d'une analyse systémique du travail, et de l'accident comme la conséquence d'une récupération d'incident.

    Dernier courant que je voudrait évoquer est le courant fiabiliste qui s'est développé depuis les années 80 sous la double influence de l'évolution technologique et de l'évolution de la façon dont les sciences humaines ont abordé le problème de l'accident. Cette évolution technologique se caractérise par l'automatisation et l'informatisation, mais aussi par la prééminence des tâches de contrôle, de surveillance, de maintenance. Par ailleurs, la complexité des systèmes est accrue, soit par l'augmentation du nombre d'interaction, soit par l'augmentation du degré de dépendance d'un élément par rapport à l'autre. En même temps, et paradoxalement, les systèmes de sécurité eux-mêmes (c'est-à-dire les systèmes destinés à avoir un rôle de protecteur contre les défaillances connues), sont aussi les points faibles des systèmes complexes. Cette surenchère des barrières défensives rend ces systèmes non seulement fragiles, mais aussi, de plus en plus difficiles à comprendre, et donc difficilement maîtrisables, pour ceux qui sont chargés de les gérer, de les conduite et de les entretenir. En effet, en période "normale", le système peut dans le meilleur des cas, être géré de façon automatisée. Mais certains dysfonctionnements, s'ils exigent une intervention humaine, et surtout s'ils sont rares, vont trouver un opérateur ayant perdu son expertise, un opérateur peu informé sur les déroulements antérieurs, et qui doit, de plus, prendre une décision dans l'incertitude et sous contrainte temporelle : toutes les conditions sont alors réunies pour augmenter l'apparition d'une "erreur humaine".

    C'est cette évolution qui a été à l'origine d'un courant de recherche dit "fiabiliste" et plus spécifiquement orienté vers la "fiabilité humaine". Le système de production (ou de travail, ou de services) est conçu comme un ensemble d'éléments en interaction et parmi ces éléments, l'homme est un composant parmi les autres. Donc, de même que l'on essaie d'évaluer la fiabilité des composants techniques, on va chercher à évaluer la fiabilité de l'opérateur humain, espérant ainsi augmenter la fiabilité globale du système.

    Ce courant a donc donné lieu à des nombreux travaux sur la fiabilité humaine, l'erreur humaine, travaux fertilisés par le développement, en parallèle, des conceptions du fonctionnement humain dans les systèmes de travail.

    Il est intéressant ici de rappeler succinctement les étapes de l'évolution de ce qu'on pourrait appeler les théories explicatives de l'erreur.

    Le premier courant clairement identifiable dans son utilisation par l'ergonomie, est issu de la théorie des communications de Shannon et Weaver (1949) appliquée à l'Homme, conçu comme un système de traitement de l'information. Dans ce cadre, les capacités limitées de traitement de l'information de l'Homme (capacités limitées de détection, de transmission, de stockage) permettent d'expliquer les erreurs comme le résultat d'un manque de ressources.

    S'il y a erreur, c'est parce que :

    - les bruits de fond (c'est-à-dire les informations non pertinentes à l'action en cours) perturbent la perception du signal ;
    - l'afflux d'informations sature le canal de transmission et que certaines informations n'ont pu être traitées ;
    - une information concurrente a empêché le traitement de l'information principale.
    Ce courant a donné lieu, d'une part à la naissance du concept de charge mentale, et aux méthodes d'évaluation de cette charge. Ces méthodes (double tâche par exemple) peuvent être considérées comme les premiers outils d'analyse et d'évaluation des erreurs, en particulier à une époque où les tâches de supervision de systèmes dynamiques complexes se sont multipliées.

    On peut considérer, pour simplifier, que les conceptions qui expliquent l'erreur par une baisse de vigilance, ou par le stress, par une altération des capacités fonctionnelles, ou de façon plus générale, par un déséquilibre entre l'exigence de la tâche et la ressource pour l'effectuer, entrant dans cette conception.

    Un autre étape importante a été inspirée par les travaux sur la résolution de problème (Newell et Simon, 60-70), dans une conception selon laquelle les étapes de raisonnement menant à la résolution d'un problème sont formalisables sous la forme d'un algorithme optimal. L'erreur est donc à rechercher dans une défaillance à une étape du raisonnement menant à la solution. L'intérêt de cette approche est de s'intéresser au fonctionnement humain sous son aspect de raisonnement et non plus seulement sous son aspect réactif passif. Ces travaux ont fortement influencé certaines conceptions récentes. Leurs limites sont que cette conception ne tient pas compte de l'aspect significatif des informations traitées. Mais surtout, elle tient insuffisamment compte du fait que, dans les situations quotidiennes de résolutions de problème :

    - soit la solution est connue, ce qui met alors en œuvre des automatismes et non des raisonnements,
    - soit la solution n'est pas connue, et se sont alors des heuristiques qui sont mis en jeu plutôt que des raisonnements séquentiels programmés.
    Un troisième type de conception, proposé aussi par des psychologues, consiste à considérer les informations que nous avons en mémoire, non nécessairement comme une correspondance de la réalité, mais une "représentation mentale", un "objet intériorisé", un modèle. De plus, cette représentation mentale en mémoire, ou ce schéma, est ce qui va guider l'action. L'erreur est alors interprétable comme un écart, ou plutôt une distorsion, une déformation, entre la représentation mentale et la réalité qu'elle est sensée représenter.

    Ce qu'il faut souligner, dans cette conception, c'est le paradoxe apparent qui consiste, pour la représentation mentale en question, à la fois à permettre des réponses rapides, des solutions ajustées, parfois automatisées et en même temps et pour les mêmes raisons, d'être source de dysfonctionnement. On voit donc déjà que l'erreur n'est plus, à strictement parler, un défaut, un dysfonctionnement, puisque sa manifestation est témoignage d'un processus d'adaptation.

    Autour des années 80, Jens Rasmussen (1986), reprenant les conceptions des psychologues, schématise les fonctions de prise d'information et de décision en prenant en compte la nature plus ou moins automatisée du raisonnement. Il distingue 3 niveaux :

    - du plus automatisé, représenté par les habiletés sensorimotrices (Skills),
    - au plus contrôlé cognitivement : basé sur les connaissances,
    - en passant par un niveau intermédiaire "contrôlé par les règles".
    L'intérêt de cette schématisation est, non seulement qu'elle souligne les différentes phases et niveaux de fonctionnement, mais aussi qu'elle peut fournir un cadre d'analyse, de classification et donc d'explication des erreurs selon le niveau de traitement auquel elle est apparue. On peut considérer que cette architecture cognitive contient également les aspects "représentation" évoqués tout-à-l'heure. On peut d'ailleurs la considérer comme une synthèse des différentes conceptions présentées plus haut. Mais surtout elle a été, et reste, utilisée dans l'analyse des erreurs de conduite des systèmes complexes.

    Enfin, une conception récente, que Mazeau a évoquée (Amalberti, 1996), élaborée à l'occasion de travaux sur la conduite des systèmes à risque, consiste à considérer que le mode de fonctionnement dans lequel l'opérateur humain est le plus à l'aise est un mode anticipatif : l'opérateur humain, pour éviter d'être en situation de surprise, vérifie constamment, plus ou moins explicitement) des hypothèses, contrôle des attentes.

    Cette activité de contrôle de résultats attendus, voire de contrôle de l'activité elle-même, fonctionne à plusieurs niveaux :

    - au niveau des contrôles automatiques de l'action,
    - au niveau de contrôles portant sur la représentation, en situation de résolution de problème par exemple,
    - voire aussi contrôles permettant, l'erreur étant survenue, de la récupérer.
    Dans ce modèle, c'est au niveau des mécanismes de contrôle cognitif qu'il faut chercher à comprendre les conditions d'apparition de l'erreur : peu de contrôle est moins coûteux, plus rapide, mais amène à agir en situation d'incertitude (prise de risque) ; inversement, trop de contrôle est coûteux et surtout retarde l'action. Cette conception a, entre autres, le mérite de mettre en exergue un point extrêmement important qui est que les mécanismes cognitifs sont des mécanismes d'ajustement puissants, mais que ces mêmes processus, fonctionnels, bien adaptés, peuvent aussi être source de dysfonctionnement, d'erreur. Dans ce cas, l'erreur n'est pas le résultat d'un mécanisme défaillant, mais elle témoigne d'une limite d'adaptation à l'environnement qui en manifeste, par cela même, le fonctionnement abouti. L'erreur fait donc partie, dans ce cas, des mécanismes d'adaptation.

    Après avoir vu succinctement cette évolution de la prise en compte des facteurs et ces conceptions de l'erreur qui, pendant ces dernières décennies en ont été le centre, je vous propose que l'on envisage, toujours sous l'angle des facteurs humains, la notion de gestion des risques.

    Dans cette partie, nous préciseront d'abord la notion de risque. Puis on cherchera à préciser à nouveau la place de l'Homme et son rôle dans le système en soulignant l'importance de la connaissance de l'activité.

    Enfin, je rappellerai quelques modèles utilisés ces dernières années dans la compréhension et l'analyse de dysfonctionnements dans lesquels des hommes sont impliqués.

    Je rappellerai d'abord une opposition bien connue des ergonomes puisqu'elle est l'expression de l'un d'entre eux : François Daniellou. Pour Daniellou (1993), une première approche possible des risques est de considérer l'homme comme une victime d'un "flux de danger" et de chercher à décrire et expliquer les facteurs de risques : on essaie alors de catégoriser les risques (physiques, chimiques, électriques…) et on tente d'en diminuer la fréquence, ou d'interposer des "écrans". Dans ce cas, la gestion des risques va consister à faire une expertise pour les détecter et à mener une action technique et/ou prescriptive pour les éviter. La deuxième approche consiste à voir l'homme comme un "acteur des interactions qui constituent l'organisation du travail". On est alors dans une vision qui privilégie la compréhension du travail réel, la connaissance de l'activité, et qui doit prendre en compte la complexité des facteurs qui déterminent la façon dont l'activité est réalisée et les conséquences en matière de santé/sécurité.

    On voit donc que le fait de considérer l'Homme comme acteur va changer le point de vue à adopter en gestion des risques, en particulier cela va mettre en exergue le rôle de la connaissance des activités (sous différentes formes : modes opératoires, stratégies…).

    En effet, les dysfonctionnements et en particulier l'accident ne peut être directement le fait des seuls facteurs techniques amont, et leur compréhension exige une connaissance de l'activité de l'homme dans le système. La connaissance de l'activité devient alors un des éléments de la compréhension et de la gestion des risques.

    Le risque peut encore être regardé de deux manières distinctes (Amalberti, 1996) :

    - d'un point de vue externe, il peut être évalué par les conséquences de la réalisation d'une défaillance donnée ;
    - d'un point de vue interne, c'est-à-dire du point de vue propre à l'opérateur humain, il peut être évalué en termes subjectifs de qualité de contrôle de la situation de travail et d'adéquation entre savoir-faire et exigences de travail.
    Le risque objectif ou "externe" correspond à la notion habituelle de risque d'accident développé par les usagers des modèles probabilistes d'analyse des risques. Il exprime le risque objectif de défaillance observé, observable ou prévisible objectivement. Il est classiquement le résultat probabiliste du produit : probabilité de défaillance x gravité des conséquences… Il faudrait ajouter modulo la probabilité de récupération. Il est objectivable, mesurable… mais sa mesure est extérieure à la façon donc fonctionne l'opérateur.

    Le risque "interne" correspond, au contraire, au risque subjectif, propre à chaque individu, qui peut être décomposé en :

    - risque de ne pas disposer des savoir-faire qui correspondraient à l'objectif visé ; ce risque est évaluable avant l'action, il est anticipable ;
    - risque de ne pas savoir gérer ses ressources au moment de l'exécution, de perdre la maîtrise de l'action. Ce risque émerge au moment de l'exécution et il est difficile à anticiper, il n'est gérable qu'au moment de l'action.
    Du point de vue de la prévention des risques professionnels, les techniques de prévention des risques externes empêchent la production de défaillances ou réduisent leurs conséquences. Des seuils de tolérances sont définis, pour les risques mineurs négligeables ; les risques non acceptables sont contrôlés, empêchés ou protégés dans leurs conséquences. Ceci est vrai autant pour les risques d'accidents, que pour les risques pour la santé…

    Les techniques de prévention des risques internes, propres à l'opérateurs, contrôlent un niveau de risque acceptable, pour une performance acceptable. Le risque n'est plus acceptable s'il échappe au contrôle de l'opérateur, c'est-à-dire quand l'opérateur considère, par anticipation ou par observation, qu'il n'est plus capable d'annuler le risque par une action qu'il connaît. Dans ce cas, ce n'est plus la fréquence objective qui compte, mais la saillance des incidents en mémoire chez l'opérateur qui devient alors un élément déterminant de la stratégie de prévention.

    Je voudrais conclure en vous présentant très schématiquement le modèle de gestion des risques que Rasmussen a présenté récemment dans la revue Safety Science en 1997 (Rasmussen, 1997).


    Ce modèle est intéressant, me semble-t-il, dans le contexte de cette Ecole d'Eté, car il ne se limite pas au niveau cognitif, comme ceux que je vous ai rappelé tout-à-l'heure. Au contraire, Rasmussen essaie, dans son approche récente de modéliser la gestion du risque à un niveau macroscopique du système considéré, voire au niveau de la société toute entière.

     

    Selon Rasmussen, l'analyse de plusieurs catastrophes (Bhopal, Zeebrugge, ou Tchernobyl par exemple) met en évidence que ces évènements ne résultent pas de la combinaison aléatoire d'évènements indépendants, mais d'une dérive systématique du comportement global du système vers l'accident sous l'influence d'une pression, d'une contrainte en faveur du rapport coût/efficacité dans un contexte (dans un environnement) fortement compétitif.

    Dans cette situation, Rasmussen considère comme fondamental la prise en compte de l'interaction des conséquences des décisions prises par les différents acteurs du système, dans leur contexte habituel de travail, chacun des acteurs ayant de fortes chances de subir la même exigence de "tension liée à la compétitivité".

    Prenant l'exemple de l'accident du Ferry à Zeebrugge, il montre que chaque acteur/décideur du système (en l'occurrence chaque personnel du navire, mais aussi les décideurs en amont) a cherché, localement, pour son sous-système, donc à des moments différents, et à des pôles de décisions différents, chaque acteur donc a cherché à optimiser ce rapport coût/efficacité, préparant ainsi le stade de dysfonctionnement grave. Il considère parallèlement que personne ne peut avoir une représentation complète de l'état du système, et que chacun juge du bien-fondé de sa décision en considérant que les défenses, les parades prises par les autres, le sont effectivement. Il fait donc l'hypothèse de l'existence, dans un système, d'une dérive naturelle des activités vers des limites de performance acceptables. Il ajoute à cela le fait que le comportement humain est déterminé à la fois par ses objectifs et par les contraintes qui lui sont imposées pour que la performance soit acceptable. Ces limites de performances appartiennent à plusieurs domaines : limites de charge de travail acceptables (pour les opérateurs), limites de coût, risques de défaillance, etc. Dans les systèmes bien conçus et "sécurisés", de nombreuses précautions sont prises pour définir clairement ces limites. C'est la stratégie de la construction de barrières, de "défenses". Un des problèmes est que, lorsque ces défenses sont construites, la violation localement d'une de ces défenses n'a pas toujours d'effet immédiat et visible. Dans cette situation, les limites d'un comportement sûr d'un acteur particulier dépend des violations possibles des autres acteurs. C'est ce qui peut expliquer que dans ce cas les défenses elles-mêmes dégénèrent, dérivent avec le temps, en particulier quand la pression, la contrainte visant à augmenter l'efficacité et à diminuer le coût, existent.

    Alors une variation habituelle du comportement d'un des acteurs, même si cette variation est acceptable dans le système "nominal" peut amener un dysfonctionnement grave non prévisible.

    De cette conception, Rasmussen déduit que la gestion du risque doit être considérée comme une fonction de contrôle focalisée sur le maintien d'un processus dangereux donné à l'intérieur de limites assurant la sécurité. Ce qui implique :

    - une identification précise de ces limites,
    - un effort pour rendre les limites visibles, perceptibles, identifiables par les différents acteurs, et en particulier la possibilité pour les différents acteurs du système d'être entraînés à les gérer,
    - un système de communication qui prenne en compte ces exigences.
    Enfin, pour donner un embryon de réponse à la question de savoir s'il est possible de gérer "scientifiquement" les risques, j'aurais tendance à penser que si la compréhension, la modélisation de la dynamique de sécurisation des systèmes peut être un objet de recherche, la gestion des risques me paraît relever plus de décisions politique d'acceptation (ou de refus), du franchissement de certaines des limites évoquées par Rasmussen, limites de charge de travail, limites d'atteintes à la santé, limites de productivité.

    Et pour illustrer cela, je vous laisserai méditer sur cette question que se pose le cueilleur de cerises du schéma suivant :

    "Jusqu'où aller assez loin pour cueillir la cerise sans risque de tomber de l'échelle ?"



    Bibliographie

    AMALBERTI R. (1996). La conduite des systèmes à risque. PUF,Coll. Le Travail Humain, 1996, 242 p.
    CUNY X. (1985). L'évolution de la sécurité dans la sidérurgie française. Sécurité et Médecine du Travail, 69, 1985, 38-41
    FAVERGE J.M. (1980). La travail en tant qu'activité de récupération. Bulletin de Psychologie, 33, 334, 203-206
    HEINRICH H.W. (1950). Industrial Accident Prevention: a scientific approach. New-York, Mc Graw Hill, 1950
    JENKINS J.D. (1948). Nominating techniques as a method of evaluation air group moral. Journal of Aviation Medicine, 1948, 1, 12-19
    MONTEAU M., PHAM D. (1987). L'accident du travail : évolution des conceptions. In: LEVY-LEBOYER C. et SPERANDIO J.C. "Traité de psychologie du travail", Paris, PUF, 1987
    NEWEL A., SIMON H.A. (1972). Human Problem Solving. New York, Prentice Hall, 1972
    RASMUSSEN J. (1986). Information Processing and Human-Machine Interaction. Amsterdam, North-Holland, 1986
    RASMUSSEN J. (1997). Risk management in a dynamic society: a modelling problem. Safety Science, 1997, 27, 2/3, 123-213
    SHANNON C.E., WEAVER W. (1949). The mathematical theory of communications. Urbana, The University of Illinois Press

    Autres publications de la sous-rubrique4

    🔍 (Google)
    Code du travail