Danger invisible : bias, signaux faibles, cindynisme

Danger invisible : de l’erreur individuelle au déficit systémique (biais cognitifs, signaux faibles et cindynisme)

Introduction – Pourquoi le danger n’est jamais là où l’on croit

Ce n’est presque jamais un choc brutal qui révèle un danger. C’est, le plus souvent, une vérité plus dérangeante : le danger était déjà là. Installé depuis longtemps. Discret. Silencieux. Invisible pour qui ne voulait pas le voir.

Dans beaucoup d’organisations, la sécurité semble solide. Les procédures sont rédigées, les audits menés, les indicateurs rassurants. Tout paraît sous contrôle, jusqu’au jour où quelque chose cède. Non pas par surprise, mais parce qu’un seuil, imperceptible jusqu’alors, a été franchi.

Contrairement à ce que l’on pense, ce ne sont pas les règles qui manquent.

Jamais les entreprises n’ont été aussi riches en normes, en standards, en consignes, en outils de maîtrise du risque.

Ce qui manque, ce n’est pas la règle. C’est la lucidité.

  • La lucidité de voir ce qui dérive lentement.
  • La lucidité de s’interroger lorsque “tout va bien”.
  • La lucidité d’entendre les doutes discrets, les frictions ténues, les incohérences muettes.
  • La lucidité, surtout, de reconnaître que le danger apparaît rarement là où l’on le guette.

Car la plupart des accidents ne naissent pas d’un défaut technique.

Ils émergent d’un triple angle mort :

  • un angle mort individuel, où nos mécanismes cognitifs filtrent ce que nous percevons ;
  • un angle mort collectif, où les signaux faibles restent à la marge ;
  • un angle mort systémique, où la culture de l’organisation rend certains dangers impensables.

Autrement dit, le danger se construit dans ce que l’on ne voit plus, ce que l’on n’entend pas, ce que l’on ne questionne plus.

Cet article propose de traverser ces trois niveaux, du plus intime au plus large :

  • du cerveau humain qui interprète la réalité,
  • à l’équipe qui banalise les petits décalages,
  • jusqu’au système qui, peu à peu, cesse d’apprendre.

Comprendre ces trois dimensions, c’est redonner à la sécurité son terrain véritable : non pas celui des règles, mais celui de la lucidité collective.

Niveau 1 – Les biais cognitifs : quand le cerveau filtre le danger

Avant que le danger ne devienne un sujet pour l’organisation, il rencontre un tout premier obstacle : le regard humain. Nous pensons observer le monde tel qu’il est. Mais en réalité, nous n’en voyons qu’une version filtrée, ajustée, simplifiée. Une version que notre cerveau juge suffisante pour avancer.

Ce cerveau, admirable par sa rapidité et sa capacité d’adaptation, est aussi un organe profondément sélectif. 

Il trie, il réduit, il interprète. Il laisse passer l’essentiel pour lui, pas forcément pour nous. Non pas par négligence, mais pour préserver son équilibre.

Comme l’a montré Daniel Kahneman, deux systèmes se relaient en permanence pour traiter l’information. Un système rapide, instinctif, économique, qui décide avant même que nous en ayons conscience et un système plus lent, plus exigeant, que nous mobilisons rarement.

Face à un risque, c’est presque toujours le premier qui parle. Le plus rapide, le moins coûteux, celui qui nous rend efficaces… mais qui, parfois, nous égare.

Ce système automatique est traversé de biais cognitifs, ces raccourcis mentaux utiles pour vivre au quotidien, mais redoutables dans les environnements industriels. Ils expliquent pourquoi un salarié compétent, expérimenté, attentif, peut passer à côté d’un signal faible.

1.1. Le biais d’habituation : quand l’anormal devient normal

Le premier ennemi de la perception, c’est l’habitude. Ce qui, au début, surprend ou inquiète comme  un bruit trop fort, une odeur légère, une vibration inhabituelle finit par s’effacer.

À force de répétition, l’anomalie se fond dans le décor.

Notre cerveau économise son énergie. Il automatise. Il cesse de s’interroger sur ce qu’il connaît déjà.

En HSE, l’habituation est une pente glissante.

  • C’est elle qui transforme les premières alertes en rituels silencieux.
  • C’est elle qui installe l’idée insidieuse : « On a toujours fait comme ça. »

1.2. Le biais de disponibilité : on pense au dernier danger visible, pas au prochain

Nous évaluons le risque à partir de ce dont nous nous souvenons. Un accident récent marque durablement. Une longue période sans incident crée, à l’inverse, une impression de sécurité.

Un opérateur qui manipule un produit corrosif sans gants n’est pas imprudent. Il est simplement guidé par ce biais : ce qu’il n’a jamais vu lui paraît improbable.

Les signaux faibles souffrent énormément de ce mécanisme : ils n’évoquent rien de connu, n’activent aucune mémoire, ne ressemblent à rien de déjà vécu. Ils semblent donc… sans importance.

1.3. Le biais de confirmation : on cherche ce qui nous rassure

Nos certitudes ont la peau dure. Lorsque nous croyons qu’une machine est fiable, qu’un collègue est prudent, qu’un site est maîtrisé, nous avons tendance à chercher inconsciemment ce qui confirme cette impression.

Tout ce qui pourrait remettre en cause cette vision est minimisé, voire ignoré.

Les signaux faibles ne s’imposent pas. Ils ne bousculent pas. Ils ne crient jamais. Ils se présentent comme des murmures.

Et les murmures dérangent la tranquillité cognitive. Le biais de confirmation les étouffe avant même qu’ils aient une chance d’exister.

1.4. Le biais d’autorité (ou de conformité sociale) : si le chef ne dit rien…

L’être humain est un animal social. Il s’adapte au groupe, s’aligne sur les comportements dominants, adopte les codes implicites.

Si un chef banalise une dérive, si un manager ne respecte pas une règle, si un collègue expérimenté contourne une consigne “juste aujourd’hui”, alors le signal faible est immédiatement requalifié : ce n’est pas dangereux, puisque les autres le font.

Le risque réel disparaît derrière un risque plus puissant encore : celui d’être le seul à dire non.

Ce biais explique une grande partie des déviations collectives : on ne cherche pas tant à être prudent qu’à ne pas être différent.

1.5. Le résultat : l’individu ne voit pas ce qu’il croit voir

Mis bout à bout, ces biais ne déforment pas seulement la perception. Ils reconfigurent la réalité telle qu’elle nous apparaît.

Le salarié ne voit pas le risque.

Il voit une scène :

  • familière,
  • cohérente,
  • rassurante,
  • conforme à ce que font les autres.

C’est ainsi que la plupart des signaux faibles disparaissent : ils meurent dans l’esprit de celui qui les a pressentis, bien avant d’avoir une chance d’atteindre l’organisation.

Niveau 2 – Les signaux faibles : quand l’organisation ne s’alerte pas

Il arrive qu’un salarié perçoive quelque chose : un doute, un léger bruit, un comportement qui “sonne faux”. Mais entre ce qu’une personne ressent et ce que l’organisation entend réellement, il existe un espace. Un filtre. Parfois, un gouffre.

Les signaux faibles ne ressemblent pas à des incidents. Ils ne bousculent rien, ne stoppent rien, ne s’imposent à personne. Ils se présentent sous forme de fragments : une variation infime, une micro-dérive, un détail qui ne colle pas.

Pris isolément, ils paraissent anodins. C’est seulement en les rassemblant, en leur donnant sens, qu’un danger latent commence à se dessiner.

Dans la plupart des accidents graves, ces signaux étaient là. Pas cachés. Pas mystérieux. Simplement inaudibles.

Car les organisations savent très bien repérer ce qui est clair, net, chiffré. Elles sont beaucoup moins à l’aise avec ce qui murmurent. Elles captent ce qui frappe ; elles manquent ce qui frôle.

Les signaux faibles prennent trois formes principales.

2.1. Les signaux humains : les premiers messagers de la fragilité

Ce sont les plus précoces. Les plus sensibles. Les plus discrets. Ils ne parlent ni de machines, ni de procédures, mais du vivant.

Ils surgissent dans :

  • une fatigue inhabituelle,
  • une irritabilité soudaine,
  • une accumulation d’erreurs minimes,
  • un retrait émotionnel,
  • une remarque lâchée entre deux portes.

Ces indices ne crient pas. Ils indiquent simplement qu’un système humain commence à se tendre, à s’user, à s’effriter.
Ils précèdent très souvent les défaillances techniques. Ils sont, en réalité, les premiers témoins d’une vulnérabilité qui s’installe.

Pourtant, dans bien des organisations, ces signaux sont perçus comme “hors sujet HSE”. On les range du côté du comportemental, du managérial, du “personnel”.

C’est une erreur. La dégradation humaine est souvent la première fissure dans la barrière sécurité.

3.2. Les signaux matériels : l’usure qui ne dit pas son nom

Ce sont les signaux les plus visibles… et pourtant les plus banalisés.

Ils apparaissent sous forme de :

  • un bruit inhabituel,
  • une vibration trop présente,
  • une micro-panne répétée,
  • un EPI usé,
  • un capteur “capricieux”,
  • un outil que l’on réajuste à la main, presque machinalement.

Ce ne sont pas des pannes. Ce sont des avertissements.

Mais dans beaucoup d’environnements industriels, on s’habitue. On contourne. On ajuste. On remet à demain.

Ainsi, ce qui devrait inquiéter devient un simple irritant opérationnel. Jusqu’au jour où l’irritant cède.

3.3. Les signaux organisationnels : les plus silencieux, les plus dangereux

Ce sont les signaux les moins visibles — et pourtant les plus révélateurs de la santé réelle d’une organisation.

Ils se manifestent par :

  • un absentéisme qui s’installe,
  • une communication verticale qui s’effiloche,
  • des incidents récurrents jamais analysés,
  • des formations repoussées faute de temps,
  • des arbitrages production > sécurité,
  • des règles contournées, “juste pour cette fois”.

Rien, dans ces manifestations, ne ressemble à un danger. Elles ressemblent à de la gestion quotidienne.

Et pourtant, elles disent tout. Elles montrent qu’une organisation commence à perdre sa capacité d’auto-correction. Qu’elle tolère le fonctionnement en mode dégradé. Qu’elle glisse doucement, sans le dire, sans le voir.

Le danger ne s’impose plus : il s’installe.

3.4. Pourquoi l’organisation ne les entend-elle pas ?

Parce que les signaux faibles ne ressemblent jamais à ce que l’on appelle, dans l’entreprise, une “alerte”.

Ils ne sont ni :

  • urgents,
  • chiffrés,
  • formalisés,
  • menaçants,
  • visibles.

Ils sont flous. Inconfortables. Ambigus.

Ils demandent du temps, de l’écoute, de la confiance — et une culture capable de donner de la valeur à ce qui n’est pas encore un problème.

Or, dans beaucoup de structures :

  • les réunions sont trop chargées,
  • les managers trop sollicités,
  • les salariés trop prudents,
  • et la hiérarchie trop confiante.

Alors, même quand un individu perçoit un début de risque, le collectif ne s’alerte pas. Le signal ne remonte pas. Ou il remonte mal. Ou il remonte trop tard.

C’est à cet instant que s’ouvre le troisième angle mort : celui du système qui ne voit plus sa propre vulnérabilité.

Niveau 3 – Le cindynisme : quand le système devient aveugle à lui-même

Il arrive que l’individu remarque quelque chose. Il arrive aussi que l’équipe, si elle s’y arrêtait vraiment, puisse y voir un début de dérive. Et pourtant, malgré ces perceptions, certaines organisations n’apprennent pas. Elles n’ajustent rien. Elles laissent l’information se dissoudre.

Pourquoi ?

Parce que certaines structures évoluent avec une image rétrécie de leur propre vulnérabilité. Elles se sentent protégées par leurs règles, leurs certificats, leurs audits, leurs bons résultats passés. Elles confondent fonctionnement normal et sécurité réelle.

C’est précisément ce que la cindynique met en lumière.

La cindynique ne s’intéresse pas seulement aux risques mesurés, mais au danger en train de se construire, dans les interactions entre les individus, les collectifs et les structures. Elle observe ce qui ne se voit pas. Les habitudes, les croyances implicites, les angles morts culturels. Elle suit la manière dont un système peut devenir vulnérable sans jamais se considérer comme tel.

Au cœur de cette approche se trouvent les Déficits Systémiques Cindynogènes (DSC). Des fragilités profondes, culturelles ou organisationnelles, qui créent un terrain favorable au danger, parfois pendant des années, sans qu’aucun indicateur classique ne les révèle.

Parmi les dix formes de DSC, trois éclairent particulièrement la manière dont une organisation “fabrique” peu à peu son propre aveuglement.

3.1. DSC1 – La culture d’infaillibilité : “Chez nous, ça ne peut pas arriver.”

C’est l’un des déficits les plus courants. Et l’un des plus pernicieux.

Il s’installe lentement, presque invisiblement, dans les organisations performantes, structurées, expérimentées. L’absence d’accidents finit par se confondre avec une impression de maîtrise totale.

On finit par croire que :

  • l’absence d’accident est une preuve,
  • les audits positifs sont des garanties,
  • les procédures solides suffisent,
  • l’expérience protège de tout.

Mais cette confiance-là n’est pas du courage. C’est une anesthésie cognitive.

On en vient à considérer les signaux faibles comme du bruit. Les alertes comme des excès de prudence. Les questions comme des pertes de temps.

La culture d’infaillibilité ne nie pas le danger. Elle le déclasse. Elle le transforme en hypothèse théorique. Jusqu’au jour où la réalité vient rappeler sa présence.

3.2. DSC3 – La non-communication : “Tout le monde savait, mais personne n’a rien dit.”

C’est un déficit silencieux, et pourtant central dans de nombreux accidents majeurs.

Le danger ne vient pas toujours de ce qui est caché. Il vient de ce qui est su, mais jamais dit.

Dans certaines organisations :

  • les anomalies remontent mal,
  • les problèmes circulent en marge des circuits officiels,
  • les opérateurs hésitent à insister,
  • les managers manquent de temps pour écouter,
  • et les signaux faibles se perdent dans des couloirs trop étroits.

Ce n’est pas que les dérives sont invisibles. C’est que l’on ne parle plus de ce que l’on voit.

La non-communication n’est pas une absence de mots. C’est une absence d’espaces où les mots peuvent exister : 
un manque de confiance, de disponibilité, de légitimité pour dire ce qui dérange.

Dans ce silence, les alertes meurent avant même d’être formulées.

3.3. DSC9 – L’absence de formation au danger : “La sécurité, c’est du bon sens.”

On forme aux gestes, aux consignes, aux procédures. Mais on forme rarement à ce qui constitue le cœur du danger émergent : l’ambiguïté, l’incertitude, l’interprétation des faibles variations.

On suppose que l’expérience suffira. Que chacun “saura reconnaître” une situation anormale. Que le bon sens fera le reste.

C’est une illusion.

Le danger qui arrive ne ressemble jamais à celui auquel on s’attend. Il se manifeste dans des détails. Dans des signaux discrets. Dans des situations qui ne cadrent pas tout à fait avec les modèles connus.

Sans formation à la perception du danger en train d’apparaître, l’organisation se prive de sa première ligne d’anticipation.

3.4. Quand les DSC transforment une dérive en normalité

Un DSC n’est pas une faille ponctuelle. Ce n’est pas une erreur. Ce n’est même pas un écart.

C’est un état.

  • Un état où le danger cesse d’être un objet de vigilance.
  • Un état où le système fonctionne, mais sur une pente qu’il ne voit plus.
  • Un état où les protections deviennent symboliques.

Ce que la cindynique montre, c’est que :

  • les signaux faibles deviennent imperceptibles,
  • les biais individuels deviennent collectifs,
  • les écarts deviennent des habitudes,
  • les doutes deviennent gênants,
  • les règles deviennent décoratives.

Et c’est ainsi que le danger se construit.

  • Sans s’annoncer.
  • Sans fracas.
  • Sans jamais se déclarer.

Les DSC ne provoquent pas l’accident. Ils le préparent. Ils créent les conditions dans lesquelles un imprévu, même minime, peut déclencher une rupture majeure.

La cindynique ne dit pas : “Le système est dangereux.” Elle dit : “Le système a cessé de se voir.”

La mécanique du danger : comment les trois niveaux convergent

Le danger ne surgit jamais d’un geste isolé. Il apparaît rarement comme une rupture soudaine. Il naît plutôt d’un glissement lent, presque imperceptible, d’un empilement de fragilités individuelles, collectives et culturelles.

Tous les retours d’expérience le montrent, des incidents du quotidien aux catastrophes industrielles : un accident n’est presque jamais la conséquence d’un acte unique. C’est l’aboutissement d’une mécanique à plusieurs étages, qui s’active silencieusement.

5.1. Premier filtre : l’individu ne perçoit pas clairement le signal

Le premier filtre, c’est l’humain.

Les biais cognitifs, habituation, confirmation, disponibilité, conformité sociale, modifient la perception du réel.

Le signal n’est pas ignoré : il est requalifié.

Ce qui pourrait être une alerte devient une simple impression. L’impression se transforme en gêne. La gêne finit par devenir un détail.

Et, à force de s’atténuer, le signal faible meurt dans l’esprit même de celui qui l’a perçu.

5.2. Deuxième filtre : le collectif ne réagit pas

Même lorsqu’un salarié remarque quelque chose, le groupe n’en fait souvent rien. Non par indifférence, mais faute de mécanismes pour accueillir l’ambiguïté.

Le signal :

  • n’est pas partagé,
  • ou il est minimisé,
  • ou il est absorbé par d’autres priorités.

« Pris isolément, un signal faible semble anodin. Pris ensemble, il dessine un risque en formation. »

Mais ce ensemble ne peut exister que si le collectif accepte de le regarder. Sans cela, le signal s’évapore. Il n’a pas le temps de devenir collectif.

5.3. Troisième filtre : le système n’apprend pas

C’est ici que les DSC jouent pleinement leur rôle.

Même lorsque les signaux existent, même lorsqu’ils sont vus ou partiellement remontés, il arrive que l’organisation :

  • ne les analyse pas,
  • ne les relie pas entre eux,
  • ne leur donne pas de valeur,
  • ne les traite pas,
  • ou ne les intègre jamais dans ses décisions.

Le système poursuit alors son fonctionnement habituel. Il se rassure dans ses indicateurs. Il répète les mêmes routines. Il maintient l’apparence de maîtrise.

Et, ce faisant, il neutralise sa propre capacité d’apprentissage.

5.4. Le danger apparaît donc là où tout le monde a regardé mais sans voir

La mécanique du danger pourrait se résumer en une simple séquence :

Un bruit → ignoré → non remonté → jamais traité → accident.

  • Rien, dans cette chaîne, n’est spectaculaire.
  • Rien ne ressemble à une alerte majeure.
  • Rien ne désigne explicitement un danger.

Pourtant, tout y est :

  • un cerveau qui filtre,
  • une équipe qui banalise,
  • une culture qui invisibilise.

Le danger ne surprend pas parce qu’il est brutal. Il surprend parce que l’organisation a cessé de le voir bien avant qu’il ne se manifeste.

6. Comment briser la chaîne ? Les 5 leviers de lucidité

Si les accidents naissent d’une triple invisibilité, individuelle, collective, systémique alors les réponses doivent agir sur ces trois niveaux. Les règles, les audits, les procédures ne suffisent pas à éclairer ce qui, par nature, reste discret, diffus, ambigu.

Pour briser la chaîne du danger invisible, il faut une autre forme de prévention. Une culture de lucidité, capable de repérer ce que les outils traditionnels ne voient pas, et d’écouter ce que personne n’a encore vraiment formulé.

Cinq leviers peuvent y contribuer.

Levier 1. Former à la perception : développer la vigilance cognitive

On forme largement aux règles. On forme très peu au danger lui-même.

Pourtant, reconnaître un signal faible demande des compétences spécifiques :

  • sentir l’ambiguïté,
  • repérer l’habituation,
  • comprendre ses propres biais,
  • percevoir les micro-variations,
  • sentir qu’“il y a quelque chose”, même sans pouvoir encore le nommer.

La vigilance cognitive, issue de la psychologie, de l’ergonomie, du retour d’expérience n’est pas un atout secondaire. C’est une compétence clé. Elle permet de contrer les biais évoqués plus haut, et de réapprendre à voir ce que l’habitude avait effacé.

Former à percevoir, c’est former à voir ce que l’on ne voit plus.

Levier 2. Encourager la remontée des signaux faibles : libérer la parole faible

Les organisations savent gérer les incidents déclarés. Elles savent beaucoup moins accueillir les incidents… qui n’existent pas encore.

Pour que les signaux faibles remontent, il faut créer un espace où l’on peut dire :

  • “j’ai un doute”,
  • “quelque chose m’étonne”,
  • “je ne sais pas si c’est important, mais…”.

Cela suppose de :

  • valoriser les alertes imparfaites,
  • normaliser les questions,
  • réhabiliter la prudence,
  • protéger la parole qui dérange.

Un environnement où l’on peut exprimer un doute est toujours plus sûr qu’un environnement où seules les certitudes circulent. 

Ce levier agit directement sur deux DSC majeurs : la non-communication et la culture d’infaillibilité.

Levier 3. Mettre en place un canal simple et immédiat : rendre l’alerte accessible

Même motivé, un salarié ne signalera pas un doute si le dispositif est :

  • lourd,
  • complexe,
  • intrusif,
  • chronophage,
  • ou socialement risqué.

Il faut un canal sans friction. Un geste simple, presque naturel.

Cela peut être :

  • une fiche très courte,
  • un QR code,
  • un formulaire minimaliste,
  • ou une application comme Routine Checks, permettant en quelques secondes de transmettre une photo, un commentaire, un ressenti.

Un bon canal ne demande pas d’analyse. Il demande l’existence du signal. L’analyse vient après. Sans un outil simple, les signaux faibles restent coincés… dans la tête de ceux qui les ont perçus.

Levier 4. Analyser collectivement ce qui paraît “anodin” : donner du sens aux petites choses

Un signal faible n’a de valeur que s’il trouve un écho dans le collectif.

Beaucoup d’organisations collectent des micro-alertes… qui ne sont jamais analysées.

  • Trop petites.
  • Trop floues.
  • Trop en marge des rituels habituels.

Analyser un signal faible ne signifie pas :

  • ouvrir une enquête,
  • produire un rapport,
  • déclencher un plan d’action lourd.

Cela signifie :

  • les catégoriser (humains, matériels, organisationnels),
  • repérer les récurrences,
  • suivre les tendances,
  • poser des questions très simples :
    “Pourquoi ici ? Pourquoi maintenant ? Qu’est-ce que cela raconte de notre système ?”

C’est souvent là, dans ce travail humble, régulier, presque silencieux, que se joue la véritable prévention.

Levier 5. Évaluer la culture du danger : mesurer les DSC avant qu’ils ne pèsent

Les Déficits Systémiques Cindynogènes (DSC) révèlent ce que les indicateurs traditionnels ignorent : la manière dont une organisation perçoit, transforme ou minimise sa propre vulnérabilité.

Évaluer les DSC par un outil structuré, comme un questionnaire cindynique, permet de :

  • objectiver les angles morts,
  • révéler les zones de surconfiance,
  • détecter les mécanismes de silence,
  • guider les actions de fond,
  • renforcer la lucidité collective.

Ce n’est pas un audit. C’est un miroir. Un moyen d’éviter que l’organisation ne fonctionne en mode dégradé… sans le reconnaître.

Le résultat : une organisation qui voit plus loin que ses propres routines

Ces leviers ne visent pas à corriger les personnes. Ils visent à organiser la lucidité.

Quand une entreprise met en place ces mécanismes :

  • les signaux faibles deviennent visibles,
  • les biais cognitifs deviennent discutables,
  • les DSC deviennent mesurables,
  • la culture devient apprenante,
  • la sécurité devient proactive.

Elle cesse de dépendre de la chance. Elle cesse de confondre absence d’accident et maîtrise du risque. Elle retrouve une capacité essentielle : voir avant que cela n’arrive.

6. Conclusion – La lucidité comme barrière de sécurité de demain

Les organisations modernes disposent de procédures, de normes, de certifications, de technologies et de contrôles en quantité inédite. Elles savent analyser un risque, tracer un incident, auditer un processus, documenter une consigne.

Tout cela est utile. Indispensable, même. Mais tout cela reste insuffisant si la lucidité n’est pas au rendez-vous.

Car la plupart des accidents n’émergent pas d’un manque de règles, mais d’un manque d’attention, d’un manque d’écoute, d’un manque de perception partagée.

Ils naissent d’un triple angle mort :

  • un individu qui filtre la réalité à travers ses biais cognitifs ;
  • un collectif qui n’entend pas les signaux faibles du quotidien ;
  • un système qui, peu à peu, perd le sens de sa propre vulnérabilité.

Le danger invisible se construit à l’intersection de ces trois dimensions. Non pas soudainement, mais progressivement.
Non pas spectaculairement, mais silencieusement. Non pas faute de moyens, mais faute de lucidité.

La véritable prévention ne consiste donc pas seulement à ajouter des règles ou à renforcer des contrôles.


Elle consiste à renforcer la capacité d’une organisation à voir ce qu’elle ne voit plus, à questionner ce qu’elle croit maîtriser,
à accueillir ce qui dérange, à entendre ce qui murmure.

C’est cela, la lucidité organisationnelle. Et c’est probablement la barrière de sécurité la plus stratégique de demain.

Parce qu’une organisation lucide :

  • ne confond pas absence d’accident et maîtrise du risque ;
  • valorise le doute autant que la certitude ;
  • sait écouter avant d’agir ;
  • repère ce qui dérive avant que cela ne rompe ;
  • apprend avant d’être obligée de le faire.

La sécurité n’est pas l’art de prévoir tous les scénarios. C’est l’art de rester vivant à ce qui se passe. D’être attentif à ce qui change. De ne jamais laisser s’installer l’illusion que l’on maîtrise tout.

Une organisation lucide ne voit pas seulement le danger. Elle voit aussi ce qui l’en approche.

C’est cette lucidité individuelle, collective et systémique  qui constitue, aujourd’hui, l’une des barrières de sécurité les plus fines, les plus humaines et les plus puissantes dont nous disposons.

Pour aller plus loin !

Lectures conseillées :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *