Pattern central – Noos Systemic
Un indicateur organisationnel ne mesure jamais seulement le phénomène qu’il représente. Il transforme progressivement les comportements qui produisent ce phénomène. À terme, il mesure sa propre adoption, et non plus ce pour quoi il a été créé.
En 2018, un directeur financier d’un groupe pharmaceutique européen plafonne le budget de recherche fondamentale à 8 % du chiffre d’affaires. L’indicateur est simple, lisible, défendable en CODIR. Trois ans plus tard, les équipes R&D modulent le rythme de leurs dépenses pour ne jamais franchir le seuil, et reportent sur des exercices ultérieurs les investissements jugés risqués. L’indicateur est propre, stable, et progresse dans le bon sens.
Ce que le DAF mesure maintenant, ce n’est plus l’effort d’innovation de l’organisation. C’est l’adaptation de l’organisation à la mesure de l’effort d’innovation. Ces deux objets n’ont plus grand-chose en commun.
Ce phénomène a un nom – la performativité métrique – et une structure précise. Ce n’est pas un dysfonctionnement managérial ni un problème d’exécution. C’est une dynamique systémique qui opère dans toute organisation qui utilise des indicateurs comme outils de gouvernance, c’est-à-dire dans la quasi-totalité des organisations contemporaines.
Ce que mesurer fait au système mesuré
La sociologie économique a documenté depuis les années 1990 un phénomène contre-intuitif : les outils de mesure ne se contentent pas de décrire la réalité. Ils la transforment. C’est ce que Michel Callon (1998) a appelé la performativité des dispositifs économiques, c’est à dire la capacité des modèles et des instruments à produire la réalité qu’ils prétendent représenter.
Dans le champ des organisations, Ferraro, Pfeffer et Sutton (2005) ont montré que les théories managériales fonctionnent comme des prophéties auto réalisatrices. Leur langage, leurs hypothèses et leurs prescriptions créent les conditions de leur propre validation.
Une théorie de l’homo economicus qui se diffuse dans les organisations finit par produire des acteurs qui se comportent comme des homo economicus, non parce que c’était vrai au départ, mais parce que les incitations, les outils et les procédures ont reconfiguré les comportements dans cette direction.
Appliqué aux indicateurs organisationnels, le mécanisme est identique. Un indicateur sélectionné pour représenter un phénomène – qualité de service, engagement des équipes, performance commerciale – redéfinit progressivement ce que les acteurs considèrent comme un comportement légitime. Ils cessent d’optimiser le phénomène sous-jacent, et optimisent l’indicateur.
La loi de Goodhart, formulée en 1975 par l’économiste Charles Goodhart à propos des politiques monétaires britanniques, en donne la formulation la plus concise : dès qu’une mesure devient une cible, elle cesse d’être une bonne mesure. La dynamique est systématique, documentée dans des contextes aussi différents que la santé, l’éducation, la banque et la recherche académique.
La boucle performative : Cinq phases
La performativité métrique ne s’active pas instantanément. Elle suit une progression en cinq phases qui peuvent s’étaler sur plusieurs mois ou plusieurs années selon la taille de l’organisation et la pression exercée sur les indicateurs.
Les cinq phases de la boucle performative
Trois cas documentés : La mesure qui dévore ce qu’elle mesure
La cible qui se retourne
NHS britannique – Délais aux urgences (2000–2008)
Le gouvernement britannique impose un objectif de quatre heures comme délai d’attente maximal aux urgences. Résultat documenté par la Care Quality Commission : les équipes développent le corridor care : les patients sont formellement admis dans un couloir avant d’être vus par un médecin, ce qui arrête le compteur d’attente officiel. Le délai mesuré diminue. Le délai réel de prise en charge augmente. La réforme du système de mesure qui s’ensuivra en 2010 ne traitera pas le problème de fond. Elle créera de nouveaux indicateurs qui seront optimisés à leur tour.
Recherche académique – L’inflation bibliométrique
Fire et Guestrin (2019) ont analysé plus de 120 millions de publications académiques sur un siècle. Leur conclusion : les métriques bibliométriques standard – nombre de publications, indice h, facteur d’impact – ont cessé de mesurer la qualité de la recherche. Elles sont devenues des cibles que les chercheurs optimisent. Les listes d’auteurs s’allongent pour multiplier les co-signatures sur des contributions marginales. Les articles raccourcissent pour maximiser le nombre de publications par unité de temps. Les titres s’optimisent pour les algorithmes de citation. L’indicateur est propre, stable, en progression. Il mesure l’adaptation au système de mesure, non la recherche elle-même.
Banques européennes – Objectifs de crédit (2004–2008)
Les institutions financières, évaluées sur leurs volumes de crédits accordés et leurs taux de défaut à court terme, développent des pratiques de titrisation permettant de sortir le risque du bilan tout en maintenant les indicateurs dans les fourchettes attendues. Les modèles de risque sont techniquement rigoureux. Ils mesurent l’adaptation du système aux indicateurs de performance, non le risque systémique réel. Les scores restent propres jusqu’en 2008.
Pourquoi ce n’est pas un problème de personnes
Le réflexe habituel face à ces situations est de chercher un responsable. Qui a manipulé les chiffres ? Qui a fait preuve de mauvaise foi ? C’est précisément la mauvaise question, et elle aggrave le problème qu’on cherche à résoudre.
Gond et Cabantous (2016), dans leur analyse de la performativité dans les organisations, montrent que ces dynamiques ne requièrent ni intention de fraude ni incompétence managériale.
Elles résultent de comportements collectivement rationnels qui produisent des effets systémiquement irrationnels. L’infirmière qui sort le patient du couloir pour arrêter le compteur prend une décision localement raisonnable dans un système d’incitations qui la récompense pour ça.
Le chercheur qui divise un article en trois publications distinctes répond à une logique institutionnelle qui valorise le nombre de publications. Le trader qui sort le risque du bilan respecte les règles en vigueur.
Ce n’est pas un défaut moral. C’est une propriété des systèmes d’indicateurs mal conçus. Ils produisent l’adaptation qu’ils cherchent à éviter.
La question pertinente ne consiste pas à savoir qui a manipulé l’indicateur mais quel comportement cet indicateur rend rationnel pour les acteurs qui en dépendent. C’est une question de conception du système de mesure, pas de vertu individuelle.
Les quatre conditions qui amplifient la boucle
La performativité métrique ne s’active pas avec la même intensité dans tous les contextes. Elle est particulièrement virulente lorsque plusieurs conditions sont réunies simultanément.
Les quatre conditions aggravantes
1
2
3
4
Si une seule condition est présente, le risque est limité. Si deux ou trois le sont simultanément, la boucle est probablement déjà active. Si les quatre sont réunies, vous êtes dans la configuration à risque maximal.
Ce que l’investigation systémique cherche que les indicateurs ne montrent pas
La réponse habituelle à ces dynamiques consiste à ajouter des indicateurs complémentaires, affiner les protocoles de mesure, multiplier les couches de contrôle. C’est précisément ce qui accélère la boucle d’amplification.
L’approche de noos.media part d’une question différente. Que s’est-il passé dans le système avant que ces chiffres arrivent dans ce tableau ? Qui les a produits, dans quel contexte, et avec quelles incitations ? Quel comportement cet indicateur rend-il rationnel pour les acteurs qui en dépendent ?
Ce que l’investigation systémique cherche, ce n’est pas un meilleur indicateur. C’est la reconstruction du contexte de production des données, les boucles de rétroaction entre acteurs, les adaptations locales non formalisées, les écarts entre le processus officiel et ce que les gens font vraiment. C’est là que se trouve l’information que les tableaux de bord ne peuvent pas produire.
Grille de diagnostic – 4 questions avant tout ajout d’indicateur
1
2
3
4
L’indicateur n’est pas la réalité
Le pilotage par indicateurs n’est pas intrinsèquement destructeur. Il le devient quand les acteurs adaptent leurs comportements à la mesure plutôt qu’au phénomène que la mesure est censée représenter, et quand cette adaptation reste invisible parce que les chiffres continuent d’être produits selon les mêmes protocoles.
La question n’est pas « faut-il supprimer les indicateurs ? » mais « mesurent-ils encore ce pour quoi ils ont été conçus ? ». Tant que cette question n’est pas posée régulièrement, l’organisation pilote sa propre adaptation à ses indicateurs, et prend des décisions rationnelles qui produisent des résultats irrationnels.
Un tableau de bord au vert n’est pas une preuve que le système fonctionne. C’est parfois la preuve qu’il s’est organisé pour que le tableau soit au vert.
Si vos indicateurs progressent et que quelque chose, pourtant, ne s’améliore pas sur le terrain, vous pouvez cartographier les boucles invisibles avec l’outil d’investigation systémique Noos.
Questions fréquentes
La loi de Goodhart s’applique-t-elle à tous les indicateurs ?
À tous les indicateurs qui deviennent des cibles décisionnelles, oui. La condition nécessaire est que l’indicateur soit lié à une conséquence pour l’acteur qui le produit : incitation, sanction, évaluation. Dès que cette condition est remplie, la mesure et le mesuré commencent à diverger. Les indicateurs purement informatifs – sans lien avec l’évaluation ou la rémunération – sont moins exposés, mais pas totalement immunisés. La pression sociale à produire de bons chiffres peut suffire à déclencher la dynamique.
Les OKR ne résolvent-ils pas ce problème ?
Les OKR améliorent la lisibilité des priorités et introduisent une culture de la revue régulière. Mais ils ne traitent pas la racine du problème. Dès que les Key Results deviennent les critères d’évaluation des équipes – ce qui se produit dans la majorité des déploiements – la même boucle se ré-enclenche. Les équipes optimisent leurs KR, développent des comportements défensifs pour les atteindre, et reformulent les Objectives pour paraître ambitieuses sans prendre de risque. Un OKR mal utilisé est un KPI avec un nom plus moderne et une réunion de revue hebdomadaire.
Comment distinguer une adaptation légitime d’une distorsion problématique ?
La distinction opérationnelle est celle-ci : une adaptation légitime améliore le phénomène sous-jacent en même temps qu’elle améliore le score. Une distorsion problématique améliore le score sans améliorer le phénomène, ou en le dégradant. Test pratique : interrogez les acteurs de terrain sur leur expérience réelle. Si leur description du phénomène diverge significativement de ce que les indicateurs montrent, vous êtes probablement dans la phase de distorsion.
Que faire quand les indicateurs sont imposés par la maison mère ou les actionnaires ?
La marge de manœuvre sur les indicateurs eux-mêmes est souvent faible dans ces configurations. Mais la marge de manœuvre sur les comportements internes reste réelle. Trois leviers restent disponibles :
- La façon dont les indicateurs sont décomposés en interne, avec ou sans l’étape d’analyse des effets secondaires.
La structure d’évaluation des équipes, corrélée à un seul KPI ou à plusieurs dimensions. - La qualité du dialogue avec la maison mère sur les indicateurs complémentaires qui permettent de contextualiser les écarts.
Un manager qui arrive avec des données sur les effets collatéraux de ses objectifs a plus de poids dans la négociation qu’un manager qui arrive avec des justifications d’écart.
Comment réduire le nombre d’indicateurs sans déclencher de résistance managériale ?
La règle la plus efficace documentée dans les organisations qui ont réussi à sortir de la boucle d’amplification est simple : à chaque nouvel indicateur créé, en supprimer un existant. La règle semble brutale. Pour autant, elle force une priorisation réelle de ce qui compte, libère la capacité d’attention des équipes de direction, et envoie un signal fort sur le fait que le tableau de bord est un outil de pilotage et non un registre exhaustif des activités de l’organisation.
Références
Sources académiques
- Goodhart, C.A.E. (1975) – « Problems of Monetary Management : The UK Experience » – Papers in Monetary Economics, Reserve Bank of Australia (formulation originale de la loi sur la performativité des indicateurs cibles)
- Ferraro, F., Pfeffer, J. & Sutton, R.I. (2005) – « Economics Language and Assumptions : How Theories Can Become Self-Fulfilling » – Academy of Management Review, 30(1), 8–24 (les trois mécanismes par lesquels les théories managériales façonnent les pratiques)
- Gond, J.-P., Cabantous, L., Harding, N. & Learmonth, M. (2016) – « What Do We Mean by Performativity in Organizational and Management Theory ? » – International Journal of Management Reviews, 18(4), 440–463 (la cartographie de référence du concept de performativité dans les organisations)
- Cabantous, L. & Gond, J.-P. (2011) – « Rational Decision-Making as a Performative Praxis » – Organization Science, 22(3), 573–586 (comment la rationalité organisationnelle est construite, non découverte)
- Fire, M. & Guestrin, C. (2019) – « Over-optimization of academic publishing metrics : observing Goodhart’s Law in action » – GigaScience, 8(6) (la démonstration empirique à grande échelle de la loi de Goodhart sur 120 millions de publications)
- Beunza, D. & Ferraro, F. (2019) – « Performative Work : Bridging Performativity and Institutional Theory in the Responsible Investment Field » – Organization Studies, 40(4), 515–543 (le travail institutionnel nécessaire à l’activation de la performativité)
Ouvrages francophones
- Desrosières, A. (1993) – La Politique des grands nombres – Histoire de la raison statistique – Éditions La Découverte, Paris (l’analyse fondatrice sur la construction sociale des statistiques et leurs effets)
- Supiot, A. (2015) – La Gouvernance par les nombres – Fayard, Paris (comment les indicateurs remplacent progressivement le jugement dans les organisations contemporaines)
- Morin, E. (2005) – Introduction à la pensée complexe – Éditions du Seuil, Paris (le cadre épistémologique des boucles rétroactives)
Ouvrages anglophones
- Campbell, D.T. (1979) – « Assessing the Impact of Planned Social Change » – Evaluation and Program Planning, 2(1) (la loi de Campbell, parallèle à celle de Goodhart : tout indicateur qui devient une cible cesse d’être un bon indicateur)
- Meadows, D. (2008) – Thinking in Systems: A Primer – Chelsea Green Publishing (boucles de rétroaction et effets contre-intuitifs des systèmes complexes)
- Kerr, S. (1975) – « On the Folly of Rewarding A, While Hoping for B » – Academy of Management Journal (incitations contre-productives, article fondateur sur les effets pervers des systèmes de mesure)
Ressources en ligne
- Noos Systemic – Méthodologie – L’approche de l’investigation systémique appliquée à l’analyse organisationnelle
- System Dynamics Society – Recherche internationale sur la modélisation des boucles de rétroaction
- Revue Française de Gestion – Cairn.info – Articles académiques francophones sur pilotage, performance et gouvernance