L’essentiel en 30 secondes
Le Problème : Décision défendable vs décision viable
Dans systèmes complexes, décision rationnelle au niveau local peut déclencher réponses systémiques contre-productives. Différence clé : Décision défendable (tient debout en réunion, document, tableau de bord) ≠ Décision viable (tient dans le temps et dans le système, anticipe adaptations, contournements, effets différés). Organisations excellent en décisions défendables tout en accumulant effets négatifs d’ensemble.
Le Concept Clé : Rationalité locale, irrationalité globale
Optimisation locale provoque réponse adaptative système qui annule gain ou crée coût supérieur ailleurs. Trois archétypes : (1) Renforcer contrôle → ralentissement, déplacement erreurs, dissimulation, (2) Sur-inciter → optimisation métrique, destruction coopération, court-termisme, (3) Décider vite → fixation prématurée, rigidité, coût politique correction. Mécanisme commun : système ne réagit pas à décision écrite, mais à ce qu’elle change (exposition risque, marges manœuvre, probabilité blâme).
L’Application : Test de Viabilité Noos
Avant valider décision, 3 tests structurels :
- Test Dissimulation : Décision incite-t-elle acteurs masquer réalité pour se protéger ?
- Test KPI : Possible « gagner » indicateur tout en « perdre » mission réelle ?
- Test Cadre : Si décision échoue, système demandera « plus de la même chose » ou permettra changer logique ? 2 « oui » sur 3 = décision structurellement fragile.
Complément : Question « Que va faire le système en réponse ? » (anticiper adaptations acteurs selon leurs contraintes/risques réels).
Avertissement : Rationalité n’échoue pas parce qu’insuffisante, mais parce qu’appliquée dans cadre qui la rend contre-productive. Critère pertinent : pas « est-ce rationnel ? » mais « cette rationalité rend-elle système plus robuste ou plus défensif ? ». Dans systèmes humains, meilleure décision rarement celle qui fait propre en comité, mais celle qui tient dans durée car anticipe réponses système, accepte correction, ne confond pas maîtrise affichée avec viabilité réelle.
Une énigme fréquente : La bonne décision qui produit le mauvais résultat
Dans de nombreuses organisations, les décisions sont prises avec sérieux. Elles sont argumentées, documentées, et présentées comme raisonnables. Les acteurs impliqués ont souvent de bonnes intentions et une forte conscience des contraintes (budget, délais, qualité, conformité). Pourtant, comme le montre les textes fondateurs, un phénomène revient avec une régularité inquiétante : plus la décision est logique, plus la situation se dégrade.
On observe alors une cascade familière :
- les problèmes se répètent malgré les plans d’action,
- les tensions internes augmentent malgré les réorganisations,
- les délais s’allongent malgré la méthode,
- les erreurs se déplacent au lieu de disparaître,
- la défiance monte malgré les discours de clarté.
Le paradoxe est brutal. La rationalité n’échoue pas parce qu’elle est insuffisante, mais parce qu’elle est appliquée dans un cadre qui la rend contre-productive.
La carte et le territoire
La logique ressemble à une carte : claire, cohérente, utile pour se repérer.
Mais une carte n’est jamais le territoire. Quand le terrain change et que la carte ne suit pas, la cohérence de la carte devient un danger.
Dans certaines organisations, les décisions sont prises pour préserver la cohérence de la carte (modèle, indicateurs, reporting) plutôt que pour s’ajuster au territoire (comportements réels, contraintes réelles, interactions réelles).
À ce moment-là, on ne pilote plus. On défend une représentation.
Le cœur du sujet n’est donc pas de ridiculiser la logique, ni d’opposer raison et humain. Le sujet est plus précis. Dans un système complexe, social, adaptatif, une décision rationnelle au niveau local peut déclencher des réponses du système qui annulent son bénéfice ou amplifient le problème initial.
Décision défendable vs décision viable
On confond constamment deux types de décisions :
- Décision défendable : elle tient debout dans une réunion, dans un document, dans un tableau de bord. Elle respecte une chaîne causale simple (« si A alors B »), et elle est compatible avec les contraintes officielles.
- Décision viable : elle tient debout dans le temps et dans le système. Elle tient compte des interactions, des adaptations, des effets différés, des contournements, des effets sur la coopération, et du déplacement des risques.
Une organisation peut exceller en décisions défendables tout en accumulant les effets négatifs d’ensemble. C’est particulièrement vrai quand :
- la gouvernance valorise la justification plus que l’impact réel,
- la culture pénalise l’incertitude,
- les indicateurs capturent la réalité à un niveau trop simplifié,
- les décisions servent aussi à protéger des positions internes.
Les effets systémiques : Pourquoi le système réagit
Un système social (entreprise, administration, institution, collectif) n’est pas un mécanisme passif. Il répond à la décision par des ajustements :
- adaptation des comportements,
- arbitrages locaux,
- contournements pour tenir les contraintes,
- réinterprétation des règles,
- calcul politique ou relationnel,
- déplacement du problème vers une zone moins visible.
Ce point est central. Les gens ne réagissent pas à la décision telle qu’elle est écrite, mais à ce qu’elle change pour eux :
- leur exposition au risque,
- leurs marges de manœuvre,
- leurs possibilités de se protéger,
- la probabilité d’être blâmé,
- la manière dont l’effort sera reconnu (ou non).
Quand une décision modifie ces paramètres, elle modifie le comportement. Cette modification du comportement peut transformer une décision logique en décision aggravante.
On améliore la carte (procédures, reporting, traçabilité) pendant que le territoire se dégrade (contournements, erreurs déplacées, initiatives étouffées).
Étude de cas n°1 : Renforcer le contrôle pour réduire les erreurs
Situation initiale :
- erreurs répétées,
- incidents,
- non-conformités,
- hétérogénéité de qualité.
Décision rationnelle classique :
- ajouter des contrôles,
- multiplier les validations,
- renforcer la traçabilité,
- formaliser des checklists,
- imposer plus de reporting.
Effets immédiats (souvent réels) :
- baisse temporaire des erreurs visibles,
- meilleure traçabilité,
- sentiment de maîtrise pour la hiérarchie.
Mais les effets systémiques arrivent ensuite :
- ralentissement des flux : plus de points d’arrêt, plus de dépendances, plus de délais cumulés ;
- déplacement des erreurs : ce qui n’est plus possible ici se produit ailleurs (en amont, en aval, hors procédure) ;
- réduction de l’initiative : chacun attend la validation, donc tout devient escalade hiérarchique ;
- contournement : les acteurs inventent des stratégies pour « passer » les contrôles, pas pour améliorer le fond ;
- masquage : le signal d’erreur remonte moins, car il expose davantage.
Au final, la décision logique a produit un système où la priorité devient :
- ne pas être le point de défaillance identifié.
On améliore le dossier, la preuve, la forme. Le problème réel peut persister, ou se déplacer en silence.
Le contrôle peut être utile mais, dans un système où le risque de blâme est élevé, le contrôle excessif fabrique de la dissimulation, et la dissimulation fabrique des crises plus coûteuses.
Étude de cas n°2 : Inciter pour motiver
Deuxième décision rationnelle classique : « si les comportements ne suivent pas, c’est qu’il manque de l’incitation« .
Alors, on ajoute :
- primes,
- bonus,
- objectifs chiffrés,
- comparaisons internes,
- classements,
- KPI plus fréquents.
Effets immédiats :
- amélioration de ce qui est mesuré,
- alignement apparent,
- montée en intensité de l’effort sur certains axes.
Effets systémiques :
- substitution du sens par la métrique : les acteurs optimisent le chiffre, pas le résultat global.
- dégradation des dimensions non mesurées : coopération, qualité invisible, transmission, robustesse..
- rivalités internes : chacun protège son score plutôt que la performance collective.
- manipulation des indicateurs : jouer le système devient rationnel.
- court-termisme : la performance à court terme est récompensée, les coûts futurs ne le sont pas.
Ici, la logique du décideur est simple : « je pilote par mesure« . Mais le système répond : « je m’adapte à la mesure« . L’adaptation peut alors créer un écart croissant entre la réalité et sa représentation.
Étude de cas n°3 : Décider vite pour sortir du flou
Troisième cas fréquent : face à un problème complexe (multifactoriel, conflictuel, incertain), la pression monte pour trancher. Décider vite est logique car :
- cela réduit l’incertitude,
- cela donne un sentiment d’action,
- cela rassure les parties prenantes internes.
Mais les effets systémiques peuvent être sévères :
- fixation prématurée sur une hypothèse (un cadre explicatif devient dogme).
- polarisation interne : les camps se forment autour de la décision.
- coût politique de la correction : revenir en arrière devient une perte de face.
- rétrécissement du champ d’observation : on ne collecte plus de signaux qui contredisent la décision.
- effet d’engagement : plus on investit dans la décision, plus on persiste même si ça se dégrade.
On croit résoudre l’incertitude en la remplaçant par une rigidité. Or, dans un environnement mouvant, la rigidité augmente la probabilité d’échec.
Cas documenté
Programme Zéro Défaut – Constructeur automobile européen (2018-2020)
Contexte
Usine de production, 3 200 employés, assemblage véhicules milieu de gamme.
Problème initial (2017-2018) :
- Taux défauts qualité : 2,1% (vs objectif groupe 0,5%)
- Coûts reprises : €8,7M/an
- Satisfaction clients : 6,2/10 (enquêtes constructeur)
- Pression groupe : Usine sous surveillance, objectif 0,5% dans 18 mois
Décision rationnelle (mars 2018)
Programme Zéro Défaut lancé par nouvelle direction usine :
- Multiplication contrôles qualité : 12 → 34 points de validation ligne assemblage
- Reporting quotidien défauts par équipe : affichage public performances, classement équipes
- Prime mensuelle qualité : €250/personne si taux défauts équipe <0,3%
- Formation intensive : 40h/équipe sur procédures qualité
Justification direction : « Nous rendons la qualité visible, mesurable, et récompensée. Chacun devient acteur de l’excellence« .
Effets immédiats (avril-juin 2018)
- Taux défauts reportés : 2,1% → 0,8% (-62%)
- Satisfaction direction : « Enfin, ça bouge. Programme validé« .
- Communication groupe : « Usine modèle, bonnes pratiques à diffuser«
Effets systémiques (juillet 2018 – mars 2019)
1. Ralentissement production (carte vs territoire)
- Cadence ligne assemblage : 47 véhicules/h → 38,5 véhicules/h (-18%)
- Cause : 34 points validation = multiplication goulots d’étranglement
- Coût indirect : €2,1M surcoût main d’œuvre (heures supplémentaires compenser cadence)
2. Déplacement erreurs (optimisation carte, dégradation territoire)
- Défauts post-ligne (retouches atelier finition) : +127% vs 2017
- Cause : défauts « validés quand même » en ligne pour tenir cadence, traités après
- Coût retouches post-ligne : €4,8M (vs €1,2M année précédente)
3. Contournements (jeu sur la carte)
- Audit interne surprise (Janvier 2019) révèle : 23% pièces défectueuses mais validées conformes par contrôleurs
- Verbatim contrôleur qualité (anonyme) : « Si je bloque trop, la ligne s’arrête, mon chef me tombe dessus. Alors je valide les défauts mineurs, et je note conforme. Le problème, c’est qu’après, le client le voit. »
- Prime qualité créé pression : équipes négocient avec contrôleurs pour passer validations
4. Masquage signaux (dissimulation pour protéger la carte)
- Remontées anomalies qualité (signalements volontaires équipes) : -56% vs 2017
- Cause : signaler défaut = risque blâme public (affichage performances) + perte prime
- Verbatim chef d’équipe (entretien audit) : « Avant, on signalait tout. Maintenant, on signale seulement ce qu’on ne peut pas cacher, parce que sinon on perd la prime et on est affichés en rouge ».
5. Climate social dégradé
- Turnover : +34% vs 2017 (climat blâme, pression prime, affichage public)
- Arrêts maladie : +18% (stress, conflits internes équipes)
- Enquête climat social (Mars 2019) : satisfaction 4,1/10 (vs 6,8/10 en 2017)
Bilan financier (12 mois post-lancement)
| Poste | Coût/Gain |
|---|---|
| Économies défauts ligne (0,8% vs 2,1%) | +€2,3M |
| Surcoût cadence réduite | -€2,1M |
| Surcoût retouches post-ligne | -€3,6M |
| Coût turnover (recrutement, formation) | -€1,8M |
| Primes qualité versées | -€0,9M |
| Bilan net | -€6,1M |
Satisfaction clients finale (mars 2019) : 5,9/10 (vs 6,2/10 avant programme) – dégradation malgré le programme Zéro Défaut.
Résolution (avril-septembre 2019)
avril 2019 : Audit externe groupe révèle : « Programme a optimisé reporting qualité, pas qualité réelle. Mécanismes contre-productifs identifiés ».
Nouveau protocole (mai 2019) :
- Réduction contrôles : 34 → 18 points (focus causes racines, pas multiplication validations)
- Arrêt affichage public performances équipes (suppression climat blâme)
- Prime qualité collective usine (pas équipe) si satisfaction clients >7/10
- Remontées anomalies protégées : signaler défaut = valorisé (pas blâmé)
- Post-mortem non punitifs : analyser échecs pour comprendre, pas sanctionner
Résultats 6 mois après (septembre 2019) :
- Taux défauts réels : 0,9% (stable vs 0,8% reporté avant, mais qualité réelle vs reporting optimisé)
- Cadence production : retour 46 véhicules/h
- Satisfaction clients : 7,3/10
- Remontées anomalies : +89% vs Mars 2019 (climat confiance restauré)
- Turnover : retour niveau 2017
Leçon systémique :
Décision rationnelle (contrôles + KPI + primes) a optimisé la carte (reporting défauts) tout en dégradant le territoire (qualité réelle, cadence, climat, coûts). Correction efficace = arrêt optimisation carte, retour attention territoire (causes racines, confiance, feedback protégé).
Source : Rapport audit qualité groupe (anonymisé), données industrie automobile européenne (2018-2020).
Le mécanisme général : La rationalité locale produit une irrationalité globale
Ce qui relie ces cas, ce n’est pas l’erreur de calcul. C’est un mécanisme. Une optimisation locale provoque une réponse adaptative du système qui annule le gain initial ou crée un coût plus élevé ailleurs.
Les décisions qui aggravent le problème ont souvent un ou plusieurs traits communs :
Périmètre trop étroit
On optimise un service, une fonction, un indicateur, sans regarder les interdépendances.
Temporalité trop courte
On juge la décision à son effet immédiat, pas à son effet à 3-6 mois (ou plus) sur les comportements et la coopération.
Hypothèse implicite de passivité
On suppose que le terrain va appliquer alors qu’il va surtout s’adapter.
Survalorisation de la justification
La décision est conçue pour être défendable devant l’autorité, pas pour être robuste dans la réalité.
Interdiction de la critique du cadre
On peut discuter des moyens, mais pas questionner la logique de gouvernance elle-même.
Le piège du faire plus : Escalade rationnelle
Quand une décision logique produit un mauvais effet, beaucoup de systèmes réagissent par plus de la même chose :
- plus de contrôle quand le contrôle échoue,
- plus de reporting quand le reporting aveugle,
- plus de KPI quand les KPI sont manipulés,
- plus d’incitations quand les incitations détruisent la coopération.
Ce n’est pas de la stupidité. C’est de la cohérence interne. On attribue l’échec non pas à la logique, mais à l’exécution. Donc on renforce le dispositif.
C’est ainsi que la logique devient auto-renforçante : l’échec valide l’intensification.
Question clé : Que va faire le système en réponse ?
Une décision utile n’est pas seulement bonne en soi. Elle doit répondre à deux questions :
1. Quelle est la réponse probable des acteurs, compte tenu de leurs contraintes et de leurs risques ?
- Si le risque de blâme est élevé, le système se protégera.
- Si l’incitation est mal conçue, le système optimisera la métrique.
- Si la décision réduit l’autonomie réelle, l’initiative se retirera.
2. Quels problèmes invisibles la décision crée-t-elle ailleurs ?
Délais, coordination, qualité non mesurée, coopération, transmission, innovation, prévention. Le coût se déplace souvent vers ce qui n’est pas compté.
Ce n’est pas un plaidoyer pour l’indécision. C’est une demande de lucidité structurale.
Le Test de Viabilité Noos
Avant de valider une décision, passez-la au crible de ces 3 tests structurels :
1. Test de la Dissimulation
Question : Cette décision incite-t-elle les acteurs à masquer la réalité pour se protéger ?
Signaux d’alerte :
- Décision augmente risque de blâme personnel
- Reporting rend erreurs très visibles publiquement
- Pas de protection pour signalements honnêtes
- Culture pénalise échec, pas apprentissage
Si OUI : Décision créera dissimulation, pas amélioration.
Exemple (cas documenté) : Programme Zéro défaut – signaler défaut = mauvaise note publique = pas de prime → signalements -56%
2. Test du KPI
Question : Est-il possible de gagner sur l’indicateur tout en perdant sur la mission réelle ?
Signaux d’alerte :
- KPI mesure proxy, pas résultat final
- Dimensions non mesurées = critiques (coopération, qualité invisible, robustesse)
- Incitations liées uniquement au KPI
- Pas de mesure effets collatéraux
Si OUI : Système optimisera indicateur, ignorera mission.
Exemple (cas documenté) : Taux défauts ligne -62% → mais défauts déplacés post-ligne +127%, clients insatisfaits 5,9/10
3. Test du Cadre
Question : Si la décision échoue, le système va-t-il demander plus de la même chose ou permettre de changer de logique ?
Signaux d’alerte :
- Coût politique élevé pour revenir en arrière
- Pas de clause révision/expérimentation
- Décision présentée comme définitive
- Critique du cadre = déloyauté
Si OUI : Décision créera escalade rationnelle (renforcer ce qui échoue).
Exemple : Contrôle échoue → « Pas assez de contrôle » (escalade) au lieu de « Mauvaise logique » (révision)
Interprétation
| 0 « OUI » | Décision structurellement robuste |
| 1 « OUI » | Vigilance requise, prévoir mécanisme correction |
| 2-3 « OUI » | Décision structurellement fragile → Refondre avant validation |
Complément : Après ces 3 tests, poser la question ouverte : « Que va faire le système en réponse, compte tenu des contraintes et risques réels des acteurs ? »
Comment éviter la rationalité contre-productive (sans tomber dans le flou)
Quelques principes décisionnels simples, mais rares dans la pratique :
1. Tester la décision sur les comportements, pas sur les intentions
La question n’est pas : « est-ce logique ?«
La question est : « comment les acteurs vont-ils s’ajuster pour survivre dans ce nouveau cadre ?«
2. Introduire un mécanisme de correction à faible coût politique
Une décision devient toxique quand elle ne peut plus être corrigée sans humiliation.
Il faut rendre la correction normale :
- points d’étape,
- clauses de révision,
- expérimentation limitée,
- critères de renoncement.
3. Limiter la dépendance au seul tableau de bord
Les indicateurs sont nécessaires. Mais ils produisent des effets de stratégie.
Il faut compléter par :
- observation qualitative structurée,
- retours terrain protégés,
- signaux faibles explicitement recherchés.
4. Mesurer aussi les dommages collatéraux
Temps, coopération, turnover, contournements, dégradation du non-mesuré. Si vous ne mesurez jamais le coût systémique, vous l’encouragez.
5. Réparer un bateau en mer
Dans un environnement instable, décider c’est intervenir sur un équilibre fragile.
Certaines réparations évidentes peuvent compromettre la stabilité générale si elles déplacent la contrainte ailleurs sans tenir compte des forces en présence, du timing, et des réactions de l’équipage.
La meilleure décision n’est pas celle qui rend la carte plus propre, mais celle qui reste ajustée au territoire.
Conclusion : La logique n’est pas le problème, ce qui est le cas de l’isolement de la logique
Quand on dit que la logique aggrave le problème, cela ne signifie pas qu’il faut décider de manière émotionnelle, arbitraire, ou intuitive. Cela veut dire qu’une décision rationnelle doit être évaluée à un niveau supérieur, celui du système.
Une décision peut être parfaitement logique et pourtant :
- accroître la dissimulation,
- réduire l’initiative,
- déplacer les erreurs,
- rigidifier la coopération,
- rendre l’organisation plus fragile.
Le critère pertinent n’est donc pas : « est-ce rationnel ?« . Le critère pertinent est : « est-ce que cette rationalité rend le système plus robuste ou plus défensif ?«
Dans les systèmes humains, la meilleure décision est rarement celle qui fait propre en comité.
C’est celle qui tient dans la durée parce qu’elle anticipe les réponses du système, accepte la correction, et ne confond pas la maîtrise affichée avec la viabilité réelle.
Si cette situation vous est familière, vous pouvez la cartographier directement avec l’outil d’investigation systémique.
Foire aux questions – FAQ
Faut-il renoncer aux KPI ?
Non. Les KPI sont nécessaires pour piloter mais ils doivent être complétés par :
- Une mesure des effets collatéraux (coopération, qualité invisible, turnover),
- Une observation qualitative terrain (pas que chiffres),
- L’acceptation que les acteurs optimisent ce qui est mesuré (donc choisir indicateurs avec soin).
Règle : Si vous pilotez uniquement par KPI, vous pilotez une représentation, pas la réalité.
Comment savoir si une décision est viable avant de la prendre ?
Utiliser le Test de Viabilité Noos (3 questions : Dissimulation ? KPI gagnant/mission perdante ? Escalade si échec ?) + « Comment les acteurs vont-ils s’adapter pour survivre dans ce nouveau cadre ? ». Si la réponse est = contournements/dissimulation/rivalités, la décision n’est pas viable. En complément : Tester décision en expérimentation limitée (1 service, 3 mois) avant généralisation. Correction précoce coûte moins cher que déploiement massif raté.
Toutes les décisions rationnelles sont-elles contre-productives ?
Non. Décision rationnelle devient contre-productive quand :
- périmètre trop étroit (optimise local, ignore interdépendances),
- temporalité trop courte (juge effet immédiat, pas 3-6 mois),
- hypothèse passivité acteurs (suppose application, ignore adaptation),
- impossible corriger sans coût politique.
Décisions rationnelles robustes : anticipent réponses système, incluent mécanisme correction, mesurent effets collatéraux.
Cet article critique-t-il la logique ou la rationalité ?
Non. Cet article critique l’isolement de la logique (décider sans anticiper réponses systémiques).
Distinction clé : Décision défendable (logique en réunion) ≠ Décision viable (tient dans système). La logique est nécessaire. La logique seule (sans lucidité structurale) est dangereuse.
Ce que l’article défend : Rationalité de niveau supérieur = anticiper comportements, accepter correction, mesurer effets réels (pas que carte).
Comment une organisation peut-elle éviter ce piège ?
5 leviers structurels :
- Tester comportements (pas intentions) : « Que fera le système en réponse ?«
- Correction à faible coût politique : clauses révision, expérimentation, points étape
- Observer terrain (pas que dashboards) : retours protégés, signaux faibles, observation qualitative
- Mesurer dommages collatéraux : coopération, turnover, contournements, qualité invisible
- Accepter incertitude : décision = hypothèse testable, pas vérité définitive
Culture clé : Valoriser une correction rapide (signal d’intelligence), pas persister dans erreur (signal de rigidité).
Références
Ouvrages fondamentaux
- Argyris, C. (1990) – Overcoming Organizational Defenses: Facilitating Organizational Learning – Prentice Hall. (Distinction espoused theory vs theory-in-use)
- Meadows, D. (2008) – Thinking in Systems: A Primer – Chelsea Green Publishing. (Effets systémiques contre-intuitifs)
- Perrow, C. (1984) – Normal Accidents: Living with High-Risk Technologies – Princeton University Press. (Accidents systémiques)
- Simon, H.A. (1996) – The Sciences of the Artificial – MIT Press. (Rationalité limitée, optimisation locale)
Effets pervers décisions rationnelles
- Campbell, D.T. (1979) – « Assessing the Impact of Planned Social Change » – Evaluation and Program Planning, 2(1), 67-90. (Loi de Campbell : indicateur devient cible, cesse être bon indicateur)
- Kerr, S. (1975) – « On the Folly of Rewarding A, While Hoping for B » – Academy of Management Journal, 18(4), 769-783. (Incitations contre-productives)
- Seddon, J. (2008) – Systems Thinking in the Public Sector – Triarchy Press. (Commande-contrôle détruit performance)
Boucles auto-renforçantes dysfonctionnelles
- Sterman, J. (2000) – Business Dynamics: Systems Thinking and Modeling for a Complex World – MIT Press. (Boucles amplificatrices pathologiques)
- Senge, P. (1990) – The Fifth Discipline: The Art and Practice of the Learning Organization – Currency. (Archétypes systémiques dysfonctionnels)
- Dekker, S. (2011) – Drift into Failure – Routledge. (Escalade rationnelle vers catastrophe)
Ressources en ligne
- System Dynamics Society – Communauté mondiale modélisation systèmes
- Santa Fe Institute – Recherche systèmes complexes adaptatifs
- Waters Foundation – Ressources pédagogiques pensée systémique