L’essentiel en 30 secondes

Le paradoxe

Comparer est présenté comme une méthode rationnelle, presque scientifique. Elle rassure, semble neutre, et donne un sentiment d’objectivité. Pourtant, dans la quasi-totalité des contextes organisationnels et décisionnels, comparer n’explique rien. La comparaison produit des écarts, et un écart n’est pas une cause. Confondre les deux est l’une des erreurs méthodologiques les plus coûteuses dans le pilotage des organisations.

Le concept central

Dans les systèmes sociaux, les résultats ne sont pas produits par des facteurs isolés mais par des configurations dynamiques d’interactions. La performance est systémique, pas modulaire. Transplanter une pratique hors de son écosystème d’origine revient à supposer que le contexte est une variable secondaire. Il est constitutif du phénomène.

Les trois signaux d’un raisonnement comparatif défaillant

  • La question posée est « qui fait mieux ? » plutôt que « quelles dynamiques produisent ce résultat ? »
  • Le plan d’action consiste à reproduire ce que fait le leader, sans analyser le système qui rend cette pratique cohérente
  • L’échec est expliqué par ce qu’on n’a pas fait comme les autres, jamais par ce que le système a produit de lui-même

Question clé : ce n’est pas « qu’est-ce qu’ils font que nous ne faisons pas ? » mais « quelles dynamiques internes produisent ce que nous observons, et quelles dynamiques internes produisent ce qu’ils observent ? »

Pattern central – Noos Systemic

Comparer deux organisations pour comprendre leur performance revient à comparer deux thermomètres pour expliquer le climat. L’écart indique une différence. Il ne révèle pas le mécanisme qui la génère. L’explication nécessite de remonter aux dynamiques : décisions, régulations, rétroactions, contraintes historiques. La comparaison photographie deux états. L’investigation reconstitue la trajectoire.

Le rapport est arrivé en novembre. Quatre-vingt-douze pages. Commandé par la direction générale d’un groupe de services B2B après deux années consécutives de perte de parts de marché. Le cabinet avait comparé le groupe à ses trois principaux concurrents sur dix-huit indicateurs :

  • prix,
  • délais,
  • satisfaction client,
  • taux de renouvellement,
  • organisation commerciale,
  • structure de coûts.

Le diagnostic tenait en une phrase : « Les concurrents A et B ont adopté un modèle de vente consultatif là où le groupe maintient une approche transactionnelle. L’écart de performance s’explique par ce différentiel de positionnement ».

La prescription suivait : transformer l’organisation commerciale en dix-huit mois. Former les équipes, modifier les incentives, adopter le modèle consultatif.

Deux ans plus tard, les parts de marché avaient continué de reculer. Le cabinet avait été rappelé. Son nouveau diagnostic : « L’implémentation a été insuffisante ».

Le problème n’était pas l’implémentation, mais le raisonnement comparatif lui-même.

La comparaison produit des différences, pas des mécanismes

Comparer A et B permet d’identifier une variation :

  • chiffre d’affaires,
  • taux d’absentéisme,
  • croissance,
  • résultats,
  • taux de rotation.

Identifier une variation ne revient pas à identifier la dynamique qui la produit.

La tentation est immédiate : chercher ce que A fait que B ne fait pas. Cette démarche repose sur une hypothèse implicite qui veut que la variable visible est la cause de l’écart. C’est méthodologiquement fragile pour une raison précise : dans les systèmes sociaux, les résultats ne sont pas produits par des facteurs isolés mais par des configurations dynamiques d’interactions.

Ce qui génère une performance n’est pas un élément unique, mais un agencement de décisions, de régulations, de contraintes historiques et de rétroactions. Modifier un élément sans comprendre l’agencement produit des effets imprévisibles, souvent inverses à ceux escomptés.

Comparer revient à photographier deux états. Expliquer suppose de comprendre la trajectoire qui relie ces états. La photographie ne contient pas le mouvement.

Le benchmarking : Industrialiser l’erreur

Le benchmarking est l’industrialisation de la comparaison. Il consiste à identifier les best practices d’un acteur performant pour les reproduire ailleurs. L’intention paraît rationnelle : copier ce qui marche.

Le problème est que les pratiques observées sont des effets stabilisés d’un système particulier. Une pratique n’a de sens que dans l’écosystème qui la rend cohérente. Transplanter une pratique hors de son contexte revient à supposer que la performance est modulaire. Or elle est systémique.

 

Cas documenté – Le benchmarking qui aggrave

Groupe de services B2B – Transformation commerciale – 3 ans, 2 200 salariés

Le cabinet identifie que les concurrents performants ont adopté un modèle de vente consultatif. Le groupe décide de l’imiter. Formation des commerciaux, modification des incentives, nouveau discours client.

Ce que le benchmarking n’avait pas vu c’est que les concurrents performants avaient construit leur modèle consultatif sur dix ans, à partir d’une base client grands comptes fidèles, avec des cycles de vente longs et des interlocuteurs C-level stables. Le groupe opérait sur un portefeuille PME, avec des cycles courts, des interlocuteurs changeants et une pression trimestrielle sur les résultats.

En imposant un modèle consultatif sur une base PME sous pression court-terme, le groupe a produit l’effet inverse : allongement des cycles sans augmentation du taux de closing, démotivation des commerciaux habitués à des victoires rapides, perte des clients les plus réactifs.

Trace → Parts de marché en recul supplémentaire de 4 points en 24 mois. Turnover commercial +38%. Le cabinet diagnostique « résistance au changement ». La réalité : incompatibilité systémique entre le modèle copié et l’écosystème d’accueil.

L’erreur d’attribution causale

Comparer active un biais cognitif puissant : l’erreur d’attribution. Lorsqu’un écart est constaté, nous cherchons spontanément une cause simple, identifiable, souvent personnifiée.

  • Si une entreprise réussit, on attribue la performance au leadership du CEO.
  • Si un pays décroche, on incrimine sa politique fiscale.
  • Si une équipe échoue, on désigne son manager.

La comparaison fournit un contraste. L’esprit humain comble le vide causal. Mais dans les systèmes complexes, les effets sont co-produits par des interactions multiples, souvent circulaires.

Un CEO performant bénéficie d’un board stable. Un board stable bénéficie d’un environnement régulé. Un environnement régulé bénéficie d’une confiance institutionnelle construite sur des décisions antérieures. La causalité est distribuée, non localisée.

Comparer deux CEO sans analyser les systèmes qui les entourent revient à comparer deux pièces d’un moteur sans examiner la machine complète.

La comparaison ignore la temporalité

La comparaison est statique, et l’explication est dynamique. Deux organisations peuvent afficher des performances opposées à un instant T pour des raisons inverses.

La séquence en 4 temps – Ce que la comparaison masque

1

L’écart visible à l’instant T
Organisation A affiche une croissance de 12%. Organisation B affiche 3%. La comparaison s’arrête là et conclut : A fait mieux que B.

2

Ce que la comparaison ne voit pas
A a externalisé massivement ses coûts fixes, créant une fragilité structurelle. B consolide ses marges après une réorganisation douloureuse. La croissance de A est une dette future. La contre-performance de B est le prix d’un ajustement nécessaire.

3

La décision prise sur la base de la comparaison
B décide d’imiter A. Elle interrompt sa consolidation pour accélérer sa croissance. Elle reproduit le modèle d’externalisation.

4

T+18 mois
A subit un retournement brutal lié à sa fragilité structurelle. B, qui avait interrompu sa consolidation pour imiter A, se retrouve avec les deux problèmes simultanément. La comparaison a produit exactement l’inverse de ce qu’elle promettait.
Sans analyse temporelle, la comparaison fige le mouvement et produit une illusion de compréhension. Une performance peut être le résultat d’une dette future. Une contre-performance peut être le prix d’un ajustement nécessaire.

Le contexte n’est pas une variable secondaire

Dans les sciences sociales appliquées, le contexte n’est pas un décor. Il est constitutif du phénomène. Comparer deux hôpitaux sans intégrer leur démographie locale, leur financement, leur culture interne et leur historique décisionnel revient à comparer des surfaces sans examiner les structures portantes.

Le contexte agit comme une matrice de contraintes et d’opportunités. Une même politique produit des effets opposés selon l’environnement dans lequel elle s’insère. La comparaison ignore souvent cette dimension parce qu’elle suppose une transférabilité universelle des pratiques.

Or un système ne peut être compris indépendamment de ses conditions de couplage avec son environnement. Ce qui fonctionne dans un écosystème de confiance institutionnelle forte ne fonctionne pas dans un écosystème de méfiance structurelle. Ce qui produit de l’innovation dans une culture d’acceptation de l’erreur produit de la paralysie dans une culture du blâme.

L’illusion de neutralité : Ce que l’on choisit de comparer

Comparer semble objectif. Les chiffres parlent, les écarts sont mesurables, mais choisir ce que l’on compare n’est jamais neutre.

  • Pourquoi comparer la rentabilité et non la résilience ? Pourquoi comparer le taux de rotation et non la capacité d’apprentissage ? Pourquoi comparer la croissance trimestrielle et non la stabilité stratégique ?
  • La comparaison sélectionne implicitement des critères normatifs. Elle encode une vision de la performance. Ce qui est mesuré devient ce qui compte.
  • Comparer transforme les priorités : l’organisation commence à optimiser ce qui est comparé, au détriment des dimensions non mesurées : coopération, robustesse, transmission, capacité d’adaptation.

Comparaison et compétition : La boucle auto-renforçante

Lorsque les organisations sont comparées publiquement – classements, rankings, scores ESG, évaluations – un effet systémique prévisible apparaît. Les acteurs adaptent leur comportement pour améliorer leur position comparative. La logique devient « être mieux classé » plutôt que « être plus cohérent ».

Les indicateurs deviennent des objectifs. Les objectifs deviennent des contraintes. Les contraintes modifient les comportements. La comparaison engendre une boucle de standardisation.

Au lieu d’expliquer les différences, elle tend à les réduire artificiellement. Les systèmes deviennent isomorphes. Ils se ressemblent parce qu’ils sont évalués selon les mêmes critères. La diversité stratégique diminue et, paradoxalement, la capacité collective à trouver des réponses différentes aux mêmes problèmes – qui est la condition de la résilience systémique – s’érode.

Pourquoi la comparaison ne peut pas expliquer les échecs

Dans les situations de crise, la comparaison est souvent mobilisée rétrospectivement : « Pourquoi eux ont-ils réussi et pas nous ? » La réponse la plus fréquente est linéaire : ils ont fait X, nous ne l’avons pas fait.

Cette lecture postérieure simplifie la complexité de façon systématique. Une décision réussie ailleurs peut échouer ici parce que les conditions d’implémentation diffèrent structurellement. Comparer des succès ne permet pas d’identifier les vulnérabilités spécifiques d’un système.

Cas documenté
Le classement PISA comme diagnostic, et ses effets systémiques

À partir de 2001, les classements PISA de l’OCDE ont conduit de nombreux systèmes éducatifs européens à imiter le modèle finlandais, alors classé premier. L’analyse comparative identifiait plusieurs pratiques distinctives : peu de devoirs, peu de tests standardisés, grande autonomie des enseignants, pas de sélection précoce.

Plusieurs pays ont tenté la transposition. Les résultats ont été décevants ou contradictoires. Pourquoi ? Parce que le modèle finlandais est le produit d’un écosystème spécifique : statut social très élevé des enseignants (sélection parmi les 10% meilleurs diplômés), culture nationale d’équité éducative construite sur cinquante ans, confiance institutionnelle forte entre familles et école, faible hétérogénéité socio-économique dans les établissements.

Reproduire les pratiques visibles sans reconstituer l’écosystème invisible ne produit pas les mêmes effets. Pire, dans des contextes de forte hétérogénéité scolaire et de défiance institutionnelle, réduire les évaluations standardisées sans renforcer l’accompagnement individuel a parfois creusé les inégalités qu’on cherchait à réduire.

Signal → La comparaison avait identifié les pratiques mais elle n’avait pas compris le système. L’imitation des pratiques sans reconstitution du contexte a produit des effets inverses dans plusieurs systèmes éducatifs.

Ce qu’expliquer exige réellement

Expliquer n’est pas comparer avec plus de variables. C’est changer de niveau d’analyse. Une démarche explicative rigoureuse suppose :

  • Identifier les boucles d’interaction internes : quelles régulations produisent quels comportements, et comment ces comportements renforcent ou modifient les régulations.
  • Reconstituer la séquence temporelle des décisions : non pas l’état actuel, mais la trajectoire qui y a conduit, y compris les décisions non prises.
  • Analyser les critères d’arbitrage implicites : ce que le système valorise réellement, indépendamment de ce qu’il déclare valoriser.
  • Examiner les contraintes environnementales : ce que le contexte rend possible, impossible ou coûteux.
  • Comprendre les régulations formelles et informelles : les règles écrites et les règles réelles, souvent divergentes.

Cette démarche est plus exigeante que la comparaison. Elle demande une investigation mais elle est la seule qui permette d’intervenir sans aggraver la situation.

Quand la comparaison reste utile

Comparer n’est pas inutile. Cela peut servir à détecter des anomalies, à identifier des écarts significatifs, et à formuler des hypothèses d’investigation. Cependant, cela ne doit pas être confondu avec l’explication.

La comparaison est un point d’entrée, jamais une conclusion. Elle ouvre une question mais ne la résout pas. L’erreur n’est pas de comparer mais de s’arrêter à la comparaison et la traiter comme si elle avait déjà répondu à la question causale.

Le diagnostic comparatif légitime dit : « Il existe un écart significatif entre A et B sur cette dimension. Cet écart mérite d’être expliqué ». Le diagnostic comparatif illégitime dit : « A fait mieux que B parce que A fait X et B ne le fait pas. Donc B doit faire X ».

Le déplacement méthodologique

1

Au lieu de : « Qui fait mieux ? » Demander : « Quelles dynamiques produisent ce résultat ? » Ce déplacement est la différence entre un diagnostic qui produit des hiérarchies et un diagnostic qui produit de la compréhension.

2

Au lieu de : « Qu’est-ce qu’ils font que nous ne faisons pas ? » Demander : « Quelles régulations internes produisent notre résultat actuel, et pourquoi sont-elles stables malgré leur coût visible ? »

3

Au lieu de : « Pourquoi sommes-nous en retard ? » Demander : « En retard sur quoi, selon quels critères, choisis par qui, dans quel intérêt ? » La question du critère de comparaison est toujours une question politique avant d’être une question technique.

Conclusion

Comparer est une opération descriptive. Expliquer est une opération structurelle. La comparaison mesure des écarts alors que ‘explication révèle des mécanismes.

Dans les environnements complexes – organisations, institutions, politiques publiques – la performance est le produit d’interactions circulaires, non de facteurs isolés. S’en tenir à la comparaison revient à prendre l’effet pour la cause.

Le monde est saturé de classements, de benchmarks et de rankings. Ils sont lisibles, communicables, et rassurants. Ils donnent l’impression d’objectivité, mais ils encodent silencieusement une vision normative de la performance, induisent des comportements d’optimisation des indicateurs au détriment des dimensions non mesurées, et détournent l’attention des dynamiques internes au profit de la position relative.

La véritable compétence méthodologique consiste à savoir quand la comparaison éclaire, et quand elle aveugle.

Dans la plupart des situations décisionnelles complexes, la réponse est la même : la comparaison signale, l’investigation explique, et seule l’explication permet d’intervenir sans reproduire le problème sous une autre forme.

Application stratégique : Passer de la comparaison à l’investigation

Si la comparaison identifie des écarts sans révéler leurs causes, la question opérationnelle devient méthodologique : comment comprendre les dynamiques internes qui produisent ces résultats ?

L’outil d’investigation systémique Noos ne compare pas des indicateurs. Il cartographie :

  • les régulations formelles et informelles
  • les séquences décisionnelles historiques
  • les boucles de rétroaction stabilisant le système
  • les critères d’arbitrage implicites

Découvrir la méthodologie d’investigation systémique

Foire aux questions

Faut-il abandonner le benchmarking ?

Non, mais il faut changer ce qu’on en attend. Le benchmarking peut légitimement servir à détecter des anomalies, signaler des écarts qui méritent investigation, ou identifier des pistes d’hypothèses. Ce qu’il ne peut pas faire : expliquer pourquoi l’écart existe, ni prescrire ce qu’il faut changer pour le réduire. Un benchmarking utile dit qu’il existe un écart significatif ici, et que cela mérite d’être compris. Il ouvre une investigation, il ne la remplace pas.

Comment distinguer un écart qui mérite investigation d’un écart qui n’en mérite pas ?

Un écart mérite investigation lorsqu’il est récurrent (il se reproduit malgré les plans d’action), lorsqu’il résiste aux interventions directes (on agit sur la variable visible sans effet durable), ou lorsqu’il s’accompagne d’effets secondaires inattendus (l’intervention améliore un indicateur et en dégrade d’autres). Ces trois signaux indiquent que l’écart est le symptôme d’une dynamique sous-jacente, pas la cause du problème.

Pourquoi les organisations continuent-elles à sur-utiliser la comparaison malgré ses limites ?

Trois raisons structurelles. D’abord, la comparaison est communicable : les écarts sont faciles à présenter en CODIR, à mettre en slide, à défendre devant un board. Ensuite, elle rassure. Elle donne le sentiment d’objectivité et de méthode. Enfin, elle protège. En comparant à l’externe, on évite d’examiner les régulations internes, ce qui est souvent plus confortable pour les hiérarchies en place. L’investigation systémique, elle, pose des questions qui dérangent les structures existantes. C’est précisément pour cela qu’elle est moins souvent commandée.

Quelle est la différence entre corrélation, comparaison et causalité ?

La corrélation identifie une co-variation entre deux variables : quand A augmente, B augmente aussi. La comparaison identifie un écart entre deux états. A est plus élevé que B sur cette dimension. La causalité identifie un mécanisme : A produit B parce que telle dynamique relie les deux. Les trois opérations sont utiles mais à des niveaux différents. L’erreur commune consiste à traiter une corrélation ou un écart comparatif comme si c’était déjà une explication causale. Ce saut logique est à l’origine de la plupart des interventions organisationnelles qui aggravent le problème qu’elles cherchent à résoudre.

L’approche systémique Palo Alto permet-elle de dépasser la limite comparative ?

C’est précisément ce qu’elle fait. Là où la comparaison demande ce qui diffère entre A et B ?, l’approche systémique demande quelles interactions maintiennent ce résultat stable dans ce système, et quelle intervention minimale pourrait modifier cette stabilité. Le déplacement est radical : on ne cherche plus la variable manquante, on cherche la boucle qui maintient le problème. Cette logique d’investigation produit des interventions beaucoup plus économes – et beaucoup plus efficaces – que les transformations massives issues du benchmarking.

Comment présenter une approche investigative à un décideur habitué aux comparaisons ?

En ne s’opposant pas frontalement à la comparaison – ce qui activerait une résistance défensive. La démarche efficace consiste à partir de l’écart qu’il a identifié par comparaison, à le valider comme signal pertinent, puis à poser la question suivante : « Ce que vous avez identifié est réel. La question est : qu’est-ce qui, dans notre fonctionnement actuel, produit et maintient cet écart ? ». Ce déplacement – de l’écart à la dynamique – est la porte d’entrée de l’investigation. Il ne contredit pas le constat comparatif. Il l’approfondit.

Références

Ouvrages francophones

  • Crozier, M. & Friedberg, E. (1977) – L’Acteur et le Système – Éditions du Seuil, Paris (jeux d’acteurs et régulations organisationnelles. La performance comme produit d’interactions, pas de variables isolées)
  • Morin, E. (1990) – Introduction à la pensée complexe – Éditions du Seuil, Paris (limites de la causalité linéaire et nécessité de penser en boucles)
  • Boudon, R. (1984) – « La place du désordre » – PUF, Paris (effets pervers et conséquences non intentionnelles des actions rationnelles)
  • Dupuy, F. (2011) – « Lost in Management » – Éditions du Seuil, Paris (comment les outils de pilotage par comparaison déconnectent les organisations de leur réalité)
  • Le Moigne, J.-L. (1990) – La modélisation des systèmes complexes – Dunod, Paris (fondements épistémologiques de l’approche systémique versus approche analytique comparative)

Ouvrages anglophones

  • Meadows, D. (2008) – Thinking in Systems : A Primer – Chelsea Green Publishing (homéostasie, boucles de rétroaction et limites des interventions sur variables isolées)
  • Argyris, C. & Schön, D. (1978) – « Organizational Learning » – Addison-Wesley (pourquoi les organisations reproduisent leurs erreurs — apprentissage en simple vs double boucle)
  • DiMaggio, P.J. & Powell, W.W. (1983) – « The Iron Cage Revisited : Institutional Isomorphism and Collective Rationality in Organizational Fields » – American Sociological Review, 48(2) (le mécanisme d’isomorphisme. Comment la comparaison standardise les organisations)
  • Campbell, D.T. (1979) – « Assessing the Impact of Planned Social Change » – Evaluation and Program Planning, 2(1) (Loi de Campbell : tout indicateur qui devient cible cesse d’être un bon indicateur)
  • Senge, P. (1990) – « The Fifth Discipline » – Currency. (Archétypes systémiques – Pourquoi les solutions évidentes échouent dans les systèmes complexes)
  • Seddon, J. (2008) – « Systems Thinking in the Public Sector » – Triarchy Press (comment le pilotage par comparaison détruit la performance dans les organisations de service)

Ressources en ligne