Comparer deux organisations pour comprendre leur performance revient à comparer deux thermomètres pour expliquer le climat. L’écart indique une différence. Il ne révèle pas le mécanisme qui la génère. L’explication nécessite de remonter aux dynamiques : décisions, régulations, rétroactions, contraintes historiques. La comparaison photographie deux états. L’investigation reconstitue la trajectoire.
Le rapport est arrivé en novembre. Quatre-vingt-douze pages. Commandé par la direction générale d’un groupe de services B2B après deux années consécutives de perte de parts de marché. Le cabinet avait comparé le groupe à ses trois principaux concurrents sur dix-huit indicateurs : prix, délais, satisfaction client, taux de renouvellement, organisation commerciale, structure de coûts.
Le diagnostic tenait en une phrase : « Les concurrents A et B ont adopté un modèle de vente consultatif là où le groupe maintient une approche transactionnelle. L’écart de performance s’explique par ce différentiel de positionnement ».
La prescription suivait : transformer l’organisation commerciale en dix-huit mois. Former les équipes, modifier les incentives, adopter le modèle consultatif.
Deux ans plus tard, les parts de marché avaient continué de reculer. Le cabinet avait été rappelé. Son nouveau diagnostic : « L’implémentation a été insuffisante ».
Le problème n’était pas l’implémentation, mais le raisonnement comparatif lui-même.
La comparaison produit des différences, pas des mécanismes
Comparer A et B permet d’identifier une variation : chiffre d’affaires, taux d’absentéisme, croissance, résultats, taux de rotation. Identifier une variation ne revient pas à identifier la dynamique qui la produit.
La tentation est immédiate : chercher ce que A fait que B ne fait pas. Cette démarche repose sur une hypothèse implicite qui veut que la variable visible est la cause de l’écart. C’est méthodologiquement fragile pour une raison précise : dans les systèmes sociaux, les résultats ne sont pas produits par des facteurs isolés mais par des configurations dynamiques d’interactions.
Ce qui génère une performance n’est pas un élément unique, mais un agencement de décisions, de régulations, de contraintes historiques et de rétroactions. Modifier un élément sans comprendre l’agencement produit des effets imprévisibles, souvent inverses à ceux escomptés.
Comparer revient à photographier deux états. Expliquer suppose de comprendre la trajectoire qui relie ces états. La photographie ne contient pas le mouvement.
Le benchmarking : Industrialiser l’erreur
Le benchmarking est l’industrialisation de la comparaison. Il consiste à identifier les best practices d’un acteur performant pour les reproduire ailleurs. L’intention paraît rationnelle : copier ce qui marche.
Le problème est que les pratiques observées sont des effets stabilisés d’un système particulier. Une pratique n’a de sens que dans l’écosystème qui la rend cohérente. Transplanter une pratique hors de son contexte revient à supposer que la performance est modulaire. Or elle est systémique.
Groupe de services B2B – Transformation commerciale – 3 ans, 2 200 salariés
Le cabinet identifie que les concurrents performants ont adopté un modèle de vente consultatif. Le groupe décide de l’imiter. Formation des commerciaux, modification des incentives, nouveau discours client.
Ce que le benchmarking n’avait pas vu : les concurrents performants avaient construit leur modèle consultatif sur dix ans, à partir d’une base client grands comptes fidèles, avec des cycles de vente longs et des interlocuteurs C-level stables. Le groupe opérait sur un portefeuille PME, avec des cycles courts, des interlocuteurs changeants et une pression trimestrielle sur les résultats.
En imposant un modèle consultatif sur une base PME sous pression court-terme, le groupe a produit l’effet inverse : allongement des cycles sans augmentation du taux de closing, démotivation des commerciaux habitués à des victoires rapides, perte des clients les plus réactifs.
L’erreur d’attribution causale
Comparer active un biais cognitif puissant : l’erreur d’attribution. Lorsqu’un écart est constaté, nous cherchons spontanément une cause simple, identifiable, souvent personnifiée. Si une entreprise réussit, on attribue la performance au leadership du CEO. Si un pays décroche, on incrimine sa politique fiscale. Si une équipe échoue, on désigne son manager.
La comparaison fournit un contraste. L’esprit humain comble le vide causal. Mais dans les systèmes complexes, les effets sont co-produits par des interactions multiples, souvent circulaires.
Un CEO performant bénéficie d’un board stable. Un board stable bénéficie d’un environnement régulé. Un environnement régulé bénéficie d’une confiance institutionnelle construite sur des décisions antérieures. La causalité est distribuée, non localisée.
Comparer deux CEO sans analyser les systèmes qui les entourent revient à comparer deux pièces d’un moteur sans examiner la machine complète.
La comparaison ignore la temporalité
La comparaison est statique, et l’explication est dynamique. Deux organisations peuvent afficher des performances opposées à un instant T pour des raisons inverses.
T
L’écart visible à l’instant T
Organisation A affiche une croissance de 12%. Organisation B affiche 3%. La comparaison s’arrête là et conclut : A fait mieux que B.
↓
Ce que la comparaison ne voit pas
A a externalisé massivement ses coûts fixes, créant une fragilité structurelle. B consolide ses marges après une réorganisation douloureuse. La croissance de A est une dette future. La contre-performance de B est le prix d’un ajustement nécessaire.
→
La décision prise sur la base de la comparaison
B décide d’imiter A. Elle interrompt sa consolidation pour accélérer sa croissance. Elle reproduit le modèle d’externalisation.
T+18
T+18 mois
A subit un retournement brutal lié à sa fragilité structurelle. B, qui avait interrompu sa consolidation pour imiter A, se retrouve avec les deux problèmes simultanément. La comparaison a produit exactement l’inverse de ce qu’elle promettait.
Le contexte n’est pas une variable secondaire
Dans les sciences sociales appliquées, le contexte n’est pas un décor. Il est constitutif du phénomène. Comparer deux hôpitaux sans intégrer leur démographie locale, leur financement, leur culture interne et leur historique décisionnel revient à comparer des surfaces sans examiner les structures portantes.
Le contexte agit comme une matrice de contraintes et d’opportunités. Une même politique produit des effets opposés selon l’environnement dans lequel elle s’insère. La comparaison ignore souvent cette dimension parce qu’elle suppose une transférabilité universelle des pratiques.
Or un système ne peut être compris indépendamment de ses conditions de couplage avec son environnement. Ce qui fonctionne dans un écosystème de confiance institutionnelle forte ne fonctionne pas dans un écosystème de méfiance structurelle. Ce qui produit de l’innovation dans une culture d’acceptation de l’erreur produit de la paralysie dans une culture du blâme.
L’illusion de neutralité : Ce que l’on choisit de comparer
Comparer semble objectif. Les chiffres parlent, les écarts sont mesurables, mais choisir ce que l’on compare n’est jamais neutre.
Pourquoi comparer la rentabilité et non la résilience ? Pourquoi comparer le taux de rotation et non la capacité d’apprentissage ? Pourquoi comparer la croissance trimestrielle et non la stabilité stratégique ?
La comparaison sélectionne implicitement des critères normatifs. Elle encode une vision de la performance. Ce qui est mesuré devient ce qui compte.
Comparer transforme les priorités : l’organisation commence à optimiser ce qui est comparé, au détriment des dimensions non mesurées : coopération, robustesse, transmission, capacité d’adaptation.
Comparaison et compétition : La boucle auto-renforçante
Lorsque les organisations sont comparées publiquement – classements, rankings, scores ESG, évaluations – un effet systémique prévisible apparaît. Les acteurs adaptent leur comportement pour améliorer leur position comparative. La logique devient « être mieux classé » plutôt que « être plus cohérent ».
Les indicateurs deviennent des objectifs. Les objectifs deviennent des contraintes. Les contraintes modifient les comportements. La comparaison engendre une boucle de standardisation.
Au lieu d’expliquer les différences, elle tend à les réduire artificiellement. Les systèmes deviennent isomorphes. Ils se ressemblent parce qu’ils sont évalués selon les mêmes critères. La diversité stratégique diminue et, paradoxalement, la capacité collective à trouver des réponses différentes aux mêmes problèmes – qui est la condition de la résilience systémique – s’érode.
Pourquoi la comparaison ne peut pas expliquer les échecs
Dans les situations de crise, la comparaison est souvent mobilisée rétrospectivement : « Pourquoi eux ont-ils réussi et pas nous ? » La réponse la plus fréquente est linéaire : ils ont fait X, nous ne l’avons pas fait.
Cette lecture postérieure simplifie la complexité de façon systématique. Une décision réussie ailleurs peut échouer ici parce que les conditions d’implémentation diffèrent structurellement. Comparer des succès ne permet pas d’identifier les vulnérabilités spécifiques d’un système.
À partir de 2001, les classements PISA de l’OCDE ont conduit de nombreux systèmes éducatifs européens à imiter le modèle finlandais, alors classé premier. L’analyse comparative identifiait plusieurs pratiques distinctives : peu de devoirs, peu de tests standardisés, grande autonomie des enseignants, pas de sélection précoce.
Plusieurs pays ont tenté la transposition. Les résultats ont été décevants ou contradictoires. Pourquoi ? Parce que le modèle finlandais est le produit d’un écosystème spécifique : statut social très élevé des enseignants (sélection parmi les 10% meilleurs diplômés), culture nationale d’équité éducative construite sur cinquante ans, confiance institutionnelle forte entre familles et école, faible hétérogénéité socio-économique dans les établissements.
Reproduire les pratiques visibles sans reconstituer l’écosystème invisible ne produit pas les mêmes effets. Pire, dans des contextes de forte hétérogénéité scolaire et de défiance institutionnelle, réduire les évaluations standardisées sans renforcer l’accompagnement individuel a parfois creusé les inégalités qu’on cherchait à réduire.
Ce qu’expliquer exige réellement
Expliquer n’est pas comparer avec plus de variables. C’est changer de niveau d’analyse. Une démarche explicative rigoureuse suppose :
Quelles régulations produisent quels comportements, et comment ces comportements renforcent ou modifient les régulations.
Non pas l’état actuel, mais la trajectoire qui y a conduit, y compris les décisions non prises.
Ce que le système valorise réellement, indépendamment de ce qu’il déclare valoriser.
Ce que le contexte rend possible, impossible ou coûteux.
Les règles écrites et les règles réelles, souvent divergentes.
Cette démarche est plus exigeante que la comparaison. Elle demande une investigation mais elle est la seule qui permette d’intervenir sans aggraver la situation.
Quand la comparaison reste utile
Comparer n’est pas inutile. Cela peut servir à détecter des anomalies, à identifier des écarts significatifs, et à formuler des hypothèses d’investigation. Cependant, cela ne doit pas être confondu avec l’explication.
La comparaison est un point d’entrée, jamais une conclusion. Elle ouvre une question mais ne la résout pas. L’erreur n’est pas de comparer mais de s’arrêter à la comparaison et la traiter comme si elle avait déjà répondu à la question causale.
Le diagnostic comparatif légitime dit : « Il existe un écart significatif entre A et B sur cette dimension. Cet écart mérite d’être expliqué ». Le diagnostic comparatif illégitime dit : « A fait mieux que B parce que A fait X et B ne le fait pas. Donc B doit faire X ».
Le déplacement méthodologique
01
Au lieu de : « Qui fait mieux ? »
Demander : « Quelles dynamiques produisent ce résultat ? » Ce déplacement est la différence entre un diagnostic qui produit des hiérarchies et un diagnostic qui produit de la compréhension.
02
Au lieu de : « Qu’est-ce qu’ils font que nous ne faisons pas ? »
Demander : « Quelles régulations internes produisent notre résultat actuel, et pourquoi sont-elles stables malgré leur coût visible ? »
03
Au lieu de : « Pourquoi sommes-nous en retard ? »
Demander : « En retard sur quoi, selon quels critères, choisis par qui, dans quel intérêt ? » La question du critère de comparaison est toujours une question politique avant d’être une question technique.
Conclusion
Comparer est une opération descriptive. Expliquer est une opération structurelle. La comparaison mesure des écarts alors que l’explication révèle des mécanismes.
Dans les environnements complexes – organisations, institutions, politiques publiques – la performance est le produit d’interactions circulaires, non de facteurs isolés. S’en tenir à la comparaison revient à prendre l’effet pour la cause.
Le monde est saturé de classements, de benchmarks et de rankings. Ils sont lisibles, communicables, et rassurants. Ils donnent l’impression d’objectivité, mais ils encodent silencieusement une vision normative de la performance, induisent des comportements d’optimisation des indicateurs au détriment des dimensions non mesurées, et détournent l’attention des dynamiques internes au profit de la position relative.
La véritable compétence méthodologique consiste à savoir quand la comparaison éclaire, et quand elle aveugle. Dans la plupart des situations décisionnelles complexes, la réponse est la même : la comparaison signale, l’investigation explique, et seule l’explication permet d’intervenir sans reproduire le problème sous une autre forme.
Ce que vous venez de lire n’est pas un cas isolé. C’est une structure qui se répète. Tant que vous intervenez au mauvais endroit, rien ne change, même avec de bonnes décisions.
Noos identifie en quelques minutes le point précis où le système se bloque, et ce qui maintient le problème en place.
Foire aux questions
Références
- Crozier, M. & Friedberg, E. (1977) – L’Acteur et le Système – Éditions du Seuil, Paris (jeux d’acteurs et régulations organisationnelles. La performance comme produit d’interactions, pas de variables isolées)
- Morin, E. (1990) – Introduction à la pensée complexe – Éditions du Seuil, Paris (limites de la causalité linéaire et nécessité de penser en boucles)
- Boudon, R. (1984) – La place du désordre – PUF, Paris (effets pervers et conséquences non intentionnelles des actions rationnelles)
- Dupuy, F. (2011) – Lost in Management – Éditions du Seuil, Paris (comment les outils de pilotage par comparaison déconnectent les organisations de leur réalité)
- Le Moigne, J.-L. (1990) – La modélisation des systèmes complexes – Dunod, Paris (fondements épistémologiques de l’approche systémique versus approche analytique comparative)
- Meadows, D. (2008) – Thinking in Systems : A Primer – Chelsea Green Publishing (homéostasie, boucles de rétroaction et limites des interventions sur variables isolées)
- Argyris, C. & Schön, D. (1978) – Organizational Learning – Addison-Wesley (pourquoi les organisations reproduisent leurs erreurs — apprentissage en simple vs double boucle)
- DiMaggio, P.J. & Powell, W.W. (1983) – « The Iron Cage Revisited : Institutional Isomorphism and Collective Rationality in Organizational Fields » – American Sociological Review, 48(2) (le mécanisme d’isomorphisme. Comment la comparaison standardise les organisations)
- Campbell, D.T. (1979) – « Assessing the Impact of Planned Social Change » – Evaluation and Program Planning, 2(1) (Loi de Campbell : tout indicateur qui devient cible cesse d’être un bon indicateur)
- Senge, P. (1990) – The Fifth Discipline – Currency (archétypes systémiques — pourquoi les solutions évidentes échouent dans les systèmes complexes)
- Seddon, J. (2008) – Systems Thinking in the Public Sector – Triarchy Press (comment le pilotage par comparaison détruit la performance dans les organisations de service)
- Revue Française de Gestion – Cairn.info – Articles académiques sur les dynamiques organisationnelles et les limites du benchmarking
- Harvard Business Review France – Analyses sur les effets pervers du pilotage par indicateurs comparatifs
- Textes fondateurs – Noos Systemic – Fondements de l’approche systémique MRI appliquée aux organisations