Un indicateur organisationnel ne mesure jamais seulement le phénomène qu’il représente. Il transforme progressivement les comportements qui produisent ce phénomène. À terme, il mesure sa propre adoption, et non plus ce pour quoi il a été créé.
En 2018, un directeur financier d’un groupe pharmaceutique européen plafonne le budget de recherche fondamentale à 8 % du chiffre d’affaires. L’indicateur est simple, lisible, défendable en CODIR. Trois ans plus tard, les équipes R&D modulent le rythme de leurs dépenses pour ne jamais franchir le seuil, et reportent sur des exercices ultérieurs les investissements jugés risqués. L’indicateur est propre, stable, et progresse dans le bon sens.
Ce que le DAF mesure maintenant, ce n’est plus l’effort d’innovation de l’organisation. C’est l’adaptation de l’organisation à la mesure de l’effort d’innovation. Ces deux objets n’ont plus grand-chose en commun.
Ce phénomène a un nom – la performativité métrique – et une structure précise. Ce n’est pas un dysfonctionnement managérial ni un problème d’exécution. C’est une dynamique systémique qui opère dans toute organisation qui utilise des indicateurs comme outils de gouvernance, c’est-à-dire dans la quasi-totalité des organisations contemporaines.
On retrouve ce mécanisme dans les dérives des KPI et des indicateurs de performance, qui finissent par produire l’inverse de ce qu’ils étaient censés mesurer.
Ce que mesurer fait au système mesuré
La sociologie économique a documenté depuis les années 1990 un phénomène contre-intuitif : les outils de mesure ne se contentent pas de décrire la réalité. Ils la transforment. C’est ce que Michel Callon (1998) a appelé la performativité des dispositifs économiques, c’est à dire la capacité des modèles et des instruments à produire la réalité qu’ils prétendent représenter.
Dans le champ des organisations, Ferraro, Pfeffer et Sutton (2005) ont montré que les théories managériales fonctionnent comme des prophéties auto réalisatrices. Leur langage, leurs hypothèses et leurs prescriptions créent les conditions de leur propre validation.
Une théorie de l’homo economicus qui se diffuse dans les organisations finit par produire des acteurs qui se comportent comme des homo economicus, non parce que c’était vrai au départ, mais parce que les incitations, les outils et les procédures ont reconfiguré les comportements dans cette direction.
Appliqué aux indicateurs organisationnels, le mécanisme est identique. Un indicateur sélectionné pour représenter un phénomène – qualité de service, engagement des équipes, performance commerciale – redéfinit progressivement ce que les acteurs considèrent comme un comportement légitime. Ils cessent d’optimiser le phénomène sous-jacent, et optimisent l’indicateur.
La loi de Goodhart, formulée en 1975 par l’économiste Charles Goodhart à propos des politiques monétaires britanniques, en donne la formulation la plus concise : dès qu’une mesure devient une cible, elle cesse d’être une bonne mesure. La dynamique est systématique, documentée dans des contextes aussi différents que la santé, l’éducation, la banque et la recherche académique.
La boucle performative : Cinq phases
La performativité métrique ne s’active pas instantanément. Elle suit une progression en cinq phases qui peuvent s’étaler sur plusieurs mois ou plusieurs années selon la taille de l’organisation et la pression exercée sur les indicateurs.
① Mesure. Un indicateur est sélectionné pour représenter un phénomène jugé stratégique. La sélection implique des choix implicites sur ce qu’on inclut, ce qu’on exclut, à quelle fréquence, avec quelle agrégation. Ces choix ne sont jamais neutres.
② Adaptation. Les acteurs dont la performance est évaluée par l’indicateur adaptent leurs comportements pour optimiser le score. Cette adaptation est rationnelle du point de vue de l’acteur individuel. Elle est systémiquement problématique parce qu’elle découple progressivement le score du phénomène sous-jacent.
③ Distorsion. L’indicateur mesure de moins en moins le phénomène d’origine et de plus en plus l’adaptation des acteurs à la mesure. La distorsion est invisible dans les données. Les chiffres continuent d’être produits selon les mêmes protocoles, avec les mêmes formats.
④ Contrôle intensifié. La direction, ne percevant que des scores propres et cohérents, intensifie le pilotage par l’indicateur. Elle interprète la stabilité des scores comme un signal de maîtrise alors que c’est un signal d’adaptation systémique. La pression augmente.
⑤ Amplification. Face à des scores qui résistent à l’amélioration, on affine l’indicateur ou on en ajoute de nouveaux. Ce faisant, on augmente la pression d’adaptation et on accélère la dynamique de distorsion. La boucle repart avec plus d’intensité.
Trois cas documentés : La mesure qui dévore ce qu’elle mesure
La cible qui se retourne – Délais aux urgences
Le gouvernement britannique impose un objectif de quatre heures comme délai d’attente maximal aux urgences. Résultat documenté par la Care Quality Commission : les équipes développent le corridor care : les patients sont formellement admis dans un couloir avant d’être vus par un médecin, ce qui arrête le compteur d’attente officiel. Le délai mesuré diminue. Le délai réel de prise en charge augmente. La réforme du système de mesure qui s’ensuivra en 2010 ne traitera pas le problème de fond. Elle créera de nouveaux indicateurs qui seront optimisés à leur tour.
L’inflation bibliométrique
Fire et Guestrin (2019) ont analysé plus de 120 millions de publications académiques sur un siècle. Leur conclusion : les métriques bibliométriques standard – nombre de publications, indice h, facteur d’impact – ont cessé de mesurer la qualité de la recherche. Elles sont devenues des cibles que les chercheurs optimisent. Les listes d’auteurs s’allongent pour multiplier les co-signatures sur des contributions marginales. Les articles raccourcissent pour maximiser le nombre de publications par unité de temps. Les titres s’optimisent pour les algorithmes de citation.
Objectifs de crédit
Les institutions financières, évaluées sur leurs volumes de crédits accordés et leurs taux de défaut à court terme, développent des pratiques de titrisation permettant de sortir le risque du bilan tout en maintenant les indicateurs dans les fourchettes attendues. Les modèles de risque sont techniquement rigoureux. Ils mesurent l’adaptation du système aux indicateurs de performance, non le risque systémique réel.
Pourquoi ce n’est pas un problème de personnes
Le réflexe habituel face à ces situations est de chercher un responsable. Qui a manipulé les chiffres ? Qui a fait preuve de mauvaise foi ? C’est précisément la mauvaise question, et elle aggrave le problème qu’on cherche à résoudre.
Gond et Cabantous (2016), dans leur analyse de la performativité dans les organisations, montrent que ces dynamiques ne requièrent ni intention de fraude ni incompétence managériale.
Elles résultent de comportements collectivement rationnels qui produisent des effets systémiquement irrationnels. L’infirmière qui sort le patient du couloir pour arrêter le compteur prend une décision localement raisonnable dans un système d’incitations qui la récompense pour ça.
Le chercheur qui divise un article en trois publications distinctes répond à une logique institutionnelle qui valorise le nombre de publications. Le trader qui sort le risque du bilan respecte les règles en vigueur.
Ce n’est pas un défaut moral. C’est une propriété des systèmes d’indicateurs mal conçus. Ils produisent l’adaptation qu’ils cherchent à éviter.
La question pertinente ne consiste pas à savoir qui a manipulé l’indicateur mais quel comportement cet indicateur rend rationnel pour les acteurs qui en dépendent. C’est une question de conception du système de mesure, pas de vertu individuelle.
Les quatre conditions qui amplifient la boucle
La performativité métrique ne s’active pas avec la même intensité dans tous les contextes. Elle est particulièrement virulente lorsque plusieurs conditions sont réunies simultanément.
Dès que la rémunération, la promotion ou la réputation d’un acteur dépend de l’atteinte d’un score, les comportements s’alignent sur ce score indépendamment de ses effets systémiques. C’est mécanique, pas moral.
Quand les conséquences d’un comportement adaptatif se manifestent 12 ou 18 mois plus tard, la corrélation avec l’incitation initiale est invisible dans les données. On ne corrige jamais ce qu’on ne peut pas voir.
Dans un marché volatil, la cible fixée à l’instant T devient inadaptée au moment T+2. Cependant, personne ne l’ajuste parce qu’elle est devenue un engagement institutionnel. L’organisation optimise une cible qui ne correspond plus à rien de réel.
Quand aucun dispositif d’investigation qualitative ne vient croiser les données agrégées, la distorsion reste invisible. Les tableaux de bord sont au vert. Les signaux d’alarme viennent du terrain, mais ils ne sont ni collectés ni formalisés.
Si une seule condition est présente, le risque est limité. Si deux ou trois le sont simultanément, la boucle est probablement déjà active. Si les quatre sont réunies, vous êtes dans la configuration à risque maximal.
Ce que l’investigation systémique cherche que les indicateurs ne montrent pas
La réponse habituelle à ces dynamiques consiste à ajouter des indicateurs complémentaires, affiner les protocoles de mesure, multiplier les couches de contrôle. C’est précisément ce qui accélère la boucle d’amplification.
L’approche de noos.media part d’une question différente. Que s’est-il passé dans le système avant que ces chiffres arrivent dans ce tableau ? Qui les a produits, dans quel contexte, et avec quelles incitations ? Quel comportement cet indicateur rend-il rationnel pour les acteurs qui en dépendent ?
Ce que l’investigation systémique cherche, ce n’est pas un meilleur indicateur. C’est la reconstruction du contexte de production des données, les boucles de rétroaction entre acteurs, les adaptations locales non formalisées, les écarts entre le processus officiel et ce que les gens font vraiment. C’est là que se trouve l’information que les tableaux de bord ne peuvent pas produire.
Grille de diagnostic – 4 questions avant tout ajout d’indicateur
01
Quel comportement cet indicateur va-t-il réellement inciter ?
Pas ce qu’il est censé mesurer, mais quel comportement un acteur rationnel va-t-il adopter pour optimiser ce score, en tenant compte des incitations réelles du système ?
02
Les comportements ont-ils déjà évolué en réponse à cet indicateur ?
Dans l’affirmative, l’indicateur ne mesure plus le phénomène d’origine. Il mesure l’adaptation des acteurs à la mesure. Ces deux objets peuvent diverger considérablement sans que les chiffres le révèlent.
03
Quel indicateur existant cet ajout est-il censé corriger ?
Si la réponse est « un dysfonctionnement créé par un indicateur précédent », vous êtes dans la phase d’amplification. L’ajout accélère la boucle au lieu de la corriger.
04
Quel indicateur allez-vous supprimer pour introduire celui-ci ?
Si la réponse est « aucun », le tableau de bord grossit à chaque cycle. La capacité d’attention des équipes de direction est une ressource finie. En dessous d’un certain seuil de lisibilité, les indicateurs ne pilotent plus, ils justifient.
L’indicateur n’est pas la réalité
Le pilotage par indicateurs n’est pas intrinsèquement destructeur. Il le devient quand les acteurs adaptent leurs comportements à la mesure plutôt qu’au phénomène que la mesure est censée représenter, et quand cette adaptation reste invisible parce que les chiffres continuent d’être produits selon les mêmes protocoles.
La question n’est pas « faut-il supprimer les indicateurs ? » mais « mesurent-ils encore ce pour quoi ils ont été conçus ? ». Tant que cette question n’est pas posée régulièrement, l’organisation pilote sa propre adaptation à ses indicateurs, et prend des décisions rationnelles qui produisent des résultats irrationnels.
Un tableau de bord au vert n’est pas une preuve que le système fonctionne. C’est parfois la preuve qu’il s’est organisé pour que le tableau soit au vert.
Ce que vous venez de lire n’est pas un cas isolé. C’est une structure qui se répète. Tant que vous intervenez au mauvais endroit, rien ne change, même avec de bonnes décisions.
Noos identifie en quelques minutes le point précis où le système se bloque, et ce qui maintient le problème en place.
Questions fréquentes
- Goodhart, C.A.E. (1975) – « Problems of Monetary Management : The UK Experience » – Papers in Monetary Economics, Reserve Bank of Australia (formulation originale de la loi sur la performativité des indicateurs cibles)
- Ferraro, F., Pfeffer, J. & Sutton, R.I. (2005) – « Economics Language and Assumptions : How Theories Can Become Self-Fulfilling » – Academy of Management Review, 30(1), 8–24 (les trois mécanismes par lesquels les théories managériales façonnent les pratiques)
- Gond, J.-P., Cabantous, L., Harding, N. & Learmonth, M. (2016) – « What Do We Mean by Performativity in Organizational and Management Theory ? » – International Journal of Management Reviews, 18(4), 440–463 (la cartographie de référence du concept de performativité dans les organisations)
- Cabantous, L. & Gond, J.-P. (2011) – « Rational Decision-Making as a Performative Praxis » – Organization Science, 22(3), 573–586 (comment la rationalité organisationnelle est construite, non découverte)
- Fire, M. & Guestrin, C. (2019) – « Over-optimization of academic publishing metrics : observing Goodhart’s Law in action » – GigaScience, 8(6) (la démonstration empirique à grande échelle de la loi de Goodhart sur 120 millions de publications)
- Beunza, D. & Ferraro, F. (2019) – « Performative Work : Bridging Performativity and Institutional Theory in the Responsible Investment Field » – Organization Studies, 40(4), 515–543 (le travail institutionnel nécessaire à l’activation de la performativité)
- Desrosières, A. (1993) – La Politique des grands nombres – Histoire de la raison statistique – Éditions La Découverte, Paris (l’analyse fondatrice sur la construction sociale des statistiques et leurs effets)
- Supiot, A. (2015) – La Gouvernance par les nombres – Fayard, Paris (comment les indicateurs remplacent progressivement le jugement dans les organisations contemporaines)
- Morin, E. (2005) – Introduction à la pensée complexe – Éditions du Seuil, Paris (le cadre épistémologique des boucles rétroactives)
- Campbell, D.T. (1979) – « Assessing the Impact of Planned Social Change » – Evaluation and Program Planning, 2(1) (la loi de Campbell, parallèle à celle de Goodhart : tout indicateur qui devient une cible cesse d’être un bon indicateur)
- Meadows, D. (2008) – Thinking in Systems: A Primer – Chelsea Green Publishing (boucles de rétroaction et effets contre-intuitifs des systèmes complexes)
- Kerr, S. (1975) – « On the Folly of Rewarding A, While Hoping for B » – Academy of Management Journal (incitations contre-productives, article fondateur sur les effets pervers des systèmes de mesure)
- Noos Systemic – Méthodologie – L’approche de l’investigation systémique appliquée à l’analyse organisationnelle
- System Dynamics Society – Recherche internationale sur la modélisation des boucles de rétroaction
- Revue Française de Gestion – Cairn.info – Articles académiques francophones sur pilotage, performance et gouvernance