




Le sociologue Max Weber est le premier à avoir décrit, au début du 20e siècle, la bureaucratie non pas comme un problème, mais comme la solution la plus rationnelle au problème de l'organisation collective. Règles claires, hiérarchie définie, absence de favoritisme, traitement équitable : dans un monde où les décisions reposaient sur l'arbitraire et les relations personnelles, la bureaucratie était une avancée civilisationnelle.
Weber voyait venir le revers. Il l'appelait la cage de fer — une structure conçue pour servir les humains qui finit, progressivement, par les contraindre. La machine devient plus importante que ce qu'elle produit.
Ce n'est pas une métaphore. C'est un mécanisme qu'on peut observer, mesurer — et contrer. Mais pour le contrer, il faut d'abord comprendre d'où il vient. Et les théoriciens qui ont étudié cette question depuis Weber s'entendent sur trois causes distinctes, qui se renforcent mutuellement.
En 1955, l'historien britannique Cyril Northcote Parkinson publie un court essai dans The Economist, écrit avec une ironie mordante et une précision dévastante. Sa thèse : le travail s'étend pour remplir le temps disponible à son accomplissement. Mais sa vraie bombe, la version organisationnelle, est encore plus inconfortable : le nombre d'administrateurs croît indépendamment du volume de travail réel.
Parkinson n'inventait pas une théorie. Il observait. L'Amirauté britannique avait vu ses effectifs administratifs augmenter entre 1914 et 1928 — pendant que le nombre de navires avait diminué de 67 % et le nombre de marins, de 32 %. Plus de bureaucrates. Moins de bateaux.
Son explication tenait en deux axiomes d'une clarté désarmante : un fonctionnaire veut multiplier ses subordonnés, pas ses rivaux. Et les fonctionnaires se créent du travail les uns pour les autres.
Pas par mauvaise foi. Par mécanique humaine. Les processus naissent en réponse à des problèmes réels. Mais une fois créés, ils ne disparaissent pas quand le problème est résolu. Ils s'accumulent. Une étude publiée en décembre 2024 dans arXiv, qui modélise mathématiquement la croissance bureaucratique, le confirme avec une précision nouvelle : il existe un seuil critique dans le comportement managérial. En deçà de ce seuil, une organisation arrive à élaguer ses processus obsolètes au rythme où elle en crée. Au-delà, c'est la dérive — les processus morts continuent de consommer des ressources jusqu'à l'épuisement organisationnel.
La question n'est donc pas pourquoi les organisations s'alourdissent. C'est pourquoi si peu d'entre elles s'en préoccupent avant la crise.
Robert Merton, sociologue américain, formalisait en 1940 ce qu'il appelait la dysfonction bureaucratique. Son concept le plus redoutable : le déplacement des buts. Dans une organisation bien intentionnée, les règles sont des moyens au service d'une mission. Mais progressivement, les règles deviennent la mission. On cesse de se demander pourquoi on suit une procédure. On se demande si on l'a bien suivie.
Le résultat ? Un département de permis de construction dont l'objectif officiel est la sécurité des bâtiments qui se transforme peu à peu en gardien de formulaires. Le succès n'est plus mesuré par la qualité des constructions — il est mesuré par le taux de conformité aux étapes de validation. Le citoyen, lui, attend.
Michel Crozier, dans son ouvrage fondateur Le phénomène bureaucratique (1964), prolonge ce diagnostic en décrivant les cercles vicieux auto-entretenus qui en résultent. Pour protéger chaque groupe d'acteurs contre l'arbitraire, on crée des règles impersonnelles. Ces règles réduisent le besoin de jugement. L'absence de jugement rend les gens moins capables de gérer les exceptions. On crée donc de nouvelles règles pour couvrir les exceptions. Le cercle se referme.
La formule de Crozier reste la meilleure : la bureaucratie n'est pas irrationnelle. Elle est localement rationnelle et globalement dysfonctionnelle. Chaque décision prise isolément était défendable. L'ensemble est absurde.
En 1983, les sociologues Paul DiMaggio et Walter Powell publiaient un article qui allait être cité plus de 68 000 fois. Leur question de départ : pourquoi les organisations se ressemblent-elles de plus en plus, même quand c'est clairement inefficace ?
Leur réponse allait à l'encontre de toute intuition managériale : les organisations ne copient pas leurs pairs parce que c'est optimal. Elles le font parce que c'est légitime. Ce phénomène, qu'ils ont nommé isomorphisme institutionnel, opère par trois mécanismes simultanés. L'isomorphisme coercitif : on adopte des structures parce qu'on y est obligé — lois, normes professionnelles, exigences des bailleurs de fonds. L'isomorphisme mimétique : face à l'incertitude, on imite les organisations qu'on admire, parce que dévier du modèle dominant est plus risqué que de s'y conformer. L'isomorphisme normatif : les professionnels formés dans les mêmes institutions transportent les mêmes modèles d'une organisation à l'autre.
Ce que cela produit, concrètement : une ville de 80 000 habitants qui se dote d'un processus de gouvernance calqué sur celui d'une métropole de 2 millions, parce que c'est ce que font les « bonnes » organisations. Les comités de comités. Les rapports d'étape sur les rapports d'étape. Pas parce que c'est nécessaire — parce que c'est ce qui ressemble à de la bonne gestion.
Les théories classiques décrivaient des mécanismes. La recherche des vingt dernières années a commencé à en mesurer l'ampleur — et a découvert quelques effets que Weber, Parkinson et Merton n'avaient pas anticipés.
Le premier apport vient de Gary Hamel et Michele Zanini, chercheurs au Management Lab, qui ont passé plus d'une décennie à quantifier le phénomène à l'échelle des économies nationales. Leur conclusion, publiée dans la Harvard Business Review et reprise dans Humanocracy (2020) : la « classe bureaucratique » américaine — gestionnaires, administrateurs et fonctions de soutien — a plus que doublé depuis 1983, alors que l'emploi dans les autres catégories n'augmentait que de 40 %. Ce que Peter Drucker prédisait en 1988 — que le nombre de niveaux hiérarchiques aurait diminué de moitié d'ici 2008 — ne s'est tout simplement pas produit. Par leur estimation, l'excès de bureaucratie coûte aux économies de l'OCDE près de 9 000 milliards de dollars par an en productivité perdue. Les chiffres sont discutables dans leur précision, mais l'ordre de grandeur a rarement été contesté.
Le deuxième apport concerne la numérisation. Une intuition répandue voulait que les technologies de gestion allègent la lourdeur administrative. La recherche empirique est plus nuancée. Les travaux de Bozeman, Youtie et Jung sur ce qu'ils appellent la « bureaucratie robotique » — les systèmes automatisés de conformité dans les grandes organisations — montrent que l'automatisation allège effectivement le fardeau des services administratifs... et le transfère aux opérateurs de terrain. Le formulaire ne disparaît pas. Il change de mains. Dans les universités américaines étudiées, les chercheurs recevaient plus de courriels de conformité automatisés que d'interactions humaines substantielles liées à leur travail. La cage de fer s'est dotée d'un pilote automatique.
Le troisième apport est peut-être le plus utile pour les gestionnaires : la lourdeur n'est pas neutre politiquement. Des chercheurs en administration publique ont documenté que les processus administratifs complexes servent parfois délibérément à rationner des ressources — non pas parce qu'ils sont efficaces, mais parce qu'ils sont discrets. Des travaux québécois ont notamment montré comment des procédures d'accès aux soins à domicile fonctionnaient comme écran face à des contraintes budgétaires non assumées. Merton parlait de déplacement des buts. La recherche récente ajoute : parfois, le but réel est précisément celui qu'on ne peut pas dire.
La lourdeur administrative n'est pas une nuisance abstraite. Elle a un prix documenté.
La province d'Alberta a calculé que ses quatre premières années de réduction structurée de la bureaucratie — un programme lancé en 2019 avec des cibles mesurées et une reddition de comptes publique — ont libéré plus de 2,75 milliards de dollars canadiens en coûts évités pour les citoyens, les entreprises et les agences gouvernementales. Ce chiffre n'est pas une projection. C'est une mesure.
La Corée du Sud, en réponse à la crise financière asiatique de 1998, a éliminé plus de 50 % de ses réglementations en une seule année. Son outil principal était d'une brutalité exemplaire : chaque réglementation devait être officiellement enregistrée avec un code unique. Ce qui ne pouvait pas être enregistré était automatiquement abrogé. Le choc a révélé une quantité stupéfiante de règles dont personne, dans aucun ministère, ne savait plus justifier l'existence.
L'OCDE, dans ses travaux comparatifs sur la simplification administrative publiés sous le titre évocateur From Red Tape to Smart Tape, arrive à une conclusion que les praticiens savent d'instinct mais qu'il est utile de voir confirmée : simplifier n'est pas déréguler. C'est faire la différence entre le contrôle qui protège et la friction qui épuise.
Les organisations qui ont réussi à simplifier leur gouvernance sans en compromettre l'intégrité n'ont pas copié un modèle. Mais elles ont toutes appliqué, sous des formes différentes, les mêmes principes.
Distinguer le contrôle de la trace. Beaucoup de processus lourds n'existent pas pour contrôler, mais pour documenter. Or documenter et ralentir sont deux choses distinctes. Reconfigurer les systèmes pour capturer les données après l'action plutôt qu'avant peut réduire les délais sans réduire la traçabilité. C'est un enjeu de conception, pas de volonté politique.
Localiser la décision là où l'information se trouve. La lourdeur managériale naît quand les décisions remontent systématiquement vers des niveaux qui n'ont plus le contexte. Définir rigoureusement — et défendre dans le temps — quelles décisions appartiennent à quel niveau n'est pas un abandon de contrôle. C'est de la gouvernance précise.
Donner une date d'expiration aux processus. La réponse la plus sobre à la loi de Parkinson est préventive : tout nouveau processus devrait inclure une clause de révision obligatoire à échéance fixe. Ce que Parkinson décrivait comme une fatalité devient une question de discipline institutionnelle.
Mesurer le coût de la lourdeur. Ce qui n'est pas mesuré ne sera jamais géré. Combien d'heures absorbent les processus internes de reddition de comptes ? Quel est le délai réel entre une demande et une décision ? Quel pourcentage du temps des gestionnaires sert la mission — et quel pourcentage sert l'organisation elle-même ? Ces chiffres existent partout. Peu d'organisations les calculent.
Il y a quelque chose d'ironique dans le fait que les organisations les plus intelligentes, les mieux dotées, les plus peuplées de gens compétents soient aussi celles qui peinent le plus à se simplifier. Elles ont les outils, les données, les experts. Elles savent diagnostiquer. Elles savent prescrire. Et pourtant, la prochaine réunion aura un ordre du jour de douze points, un comité de suivi, et un gabarit de reddition de comptes à remplir avant vendredi. La bureaucratie n'est pas un problème de talent. C'est un problème de système — un système qui récompense la conformité, protège ceux qui le maîtrisent, et punit discrètement ceux qui osent le questionner. Ce n'est pas une fatalité. Mais c'est une force qu'on sous-estime presque toujours.
La lourdeur administrative n'est pas un signe d'incompétence. C'est le résultat prévisible de trois mécanismes qui se renforcent mutuellement : des règles qui ne meurent pas (Parkinson), une mission qui finit par se confondre avec ses propres procédures (Merton), et une tendance naturelle à imiter les organisations perçues comme légitimes plutôt qu'efficaces (DiMaggio & Powell). Simplifier sans comprendre ces mécanismes, c'est supprimer des contrôles sans comprendre les risques qu'ils couvraient — et les recréer en pire après la prochaine crise. Les organisations qui s'en sortent mesurent le coût réel de leur lourdeur, donnent une date d'expiration à leurs processus, et confient les décisions aux niveaux qui ont l'information. Mais avant tout ça, elles commencent par aller voir comment les choses fonctionnent vraiment — pas comment elles sont censées fonctionner.
Théories fondatrices
Weber, M. (1921/1978). Economy and Society. University of California Press.
Parkinson, C. N. (1958). Parkinson's Law, and Other Studies in Administration. John Murray.
Merton, R. K. (1940). Bureaucratic structure and personality. Social Forces, 18(4), 560–568.
Crozier, M. (1964). Le phénomène bureaucratique. Éditions du Seuil.
DiMaggio, P. J., & Powell, W. W. (1983). The iron cage revisited: Institutional isomorphism and collective rationality in organizational fields. American Sociological Review, 48(2), 147–160.
Recherches récentes
Klimek, P., Hanel, R., & Thurner, S. (2009). Parkinson's law quantified: Three investigations on bureaucratic inefficiency. Journal of Statistical Mechanics, 2009(03).
Bozeman, B., & Youtie, J. (2020). Robotic bureaucracy: Administrative burden and red tape in university research. Public Administration Review, 80(1), 157–163.
Hamel, G., & Zanini, M. (2020). Humanocracy: Creating Organizations as Amazing as the People Inside Them. Harvard Business Review Press.
Powell, W. W., & DiMaggio, P. J. (2023). The iron cage redux: Looking back and forward. Organization Theory, 4(4).
Daigneault, P.-M. (2025). Administrative burden revisited: Advancing research and practice. Canadian Public Administration, 68(1).
OCDE. (2003). From Red Tape to Smart Tape: Administrative Simplification in OECD Countries. OECD Publishing.
Élève du célèbre psychologue Kurt Lewin, Bluma Zeigarnik est née en Lituanie en 1900. Elle part étudier en Allemagne avant de quitter pour les États-Unis en 1933 — comme de nombreux chercheurs menacés par le nazisme. Bluma traversera le siècle, obsédée par la psychologie. Ses champs de recherche : la motivation, la mémoire et la cognition.
Alors qu'est-ce que l'effet Zeigarnik? Nous sommes dans les années 1920, Bluma est étudiante en psychologie à l'Université de Berlin sous la direction de Kurt Lewin. Alors qu'elle dîne avec des collègues dans un restaurant, elle remarque que le serveur a une capacité étonnante à se souvenir de commandes complexes... qui semblent disparaître de sa mémoire une fois les commandes servies et réglées. Intriguée par cette observation, Zeigarnik décide d'enquêter sur cette observation de retour à l'université.
Elle mène alors une série d'expériences — où elle demande à des sujets de réaliser diverses tâches, comme résoudre des puzzles ou fabriquer des boîtes en papier. Parfois, elle les interrompt avant qu'ils ne puissent terminer. Bluma confirme sa découverte : les participants se souviennent beaucoup mieux des tâches qu'ils n'ont pas pu finir ou résoudre. Cela s’explique par une théorie clé : notre esprit est motivé par un besoin de fermeture cognitive. Cette découverte porte désormais son nom : l'effet Zeigarnik.
Dans le domaine de l’apprentissage, l’effet Zeigarnik agit comme un levier puissant pour capter et maintenir l’attention des apprenants. En interrompant stratégiquement une tâche ou un raisonnement, on peut exploiter la tension cognitive créée par une information incomplète pour favoriser la mémorisation. Par exemple, présenter une question sans en donner immédiatement la réponse incite le cerveau à maintenir cette question active, ce qui renforce son ancrage en mémoire. De même, structurer une leçon avec des pauses intentionnelles ou des éléments non résolus stimule la curiosité et encourage les apprenants à revenir vers le contenu pour trouver une solution. Ainsi, loin de simplement retenir l’information, les apprenants deviennent plus engagés dans un processus d’apprentissage actif et durable.
En gestion, l’effet Zeigarnik peut être utilisé pour stimuler l’engagement et la productivité des équipes. Lorsqu’une tâche ou un projet est volontairement laissé inachevé, il crée une tension cognitive qui pousse les collaborateurs à y revenir jusqu’à sa résolution. Ce principe peut être particulièrement efficace dans la gestion de projets complexes : en structurant le travail en étapes visibles, avec des jalons partiellement atteints, on maintient l’intérêt et la concentration des équipes. De plus, en communiquant sur des questions ouvertes ou des défis non résolus, les gestionnaires favorisent une culture d’implication où les employés se sentent motivés à contribuer activement. Bien géré, l’effet Zeigarnik devient un outil pour renforcer la dynamique collaborative et la satisfaction au travail.
Les gestionnaires peuvent utiliser l'effet Zeigarnik pour optimiser la charge de travail de leur équipe. Assigner des tâches en sachant que les employés sont plus susceptibles de se souvenir et de rester engagés avec des tâches inachevées peut aider à maintenir une motivation constante. Il est crucial, cependant, de ne pas surcharger les employés avec trop de tâches inachevées, car cela pourrait entraîner du stress et une baisse de productivité.
En commençant par des tâches plus complexes ou moins agréables et en les laissant inachevées, les gestionnaires peuvent augmenter la probabilité que ces tâches soient accomplies plus tard. Cela peut être une technique efficace pour gérer la procrastination ou la réticence à effectuer certaines tâches.
Bien que l’effet Zeigarnik soit un levier efficace pour maintenir l’attention et stimuler l’engagement, son utilisation présente des limites qu’il est crucial de reconnaître. La tension cognitive créée par des tâches incomplètes peut facilement devenir une source de stress, particulièrement si les interruptions sont trop fréquentes ou mal dosées. Dans un environnement d’apprentissage ou de gestion, des attentes mal définies ou des projets inachevés peuvent générer un sentiment d’éparpillement ou de surcharge mentale, nuisant à la motivation. De plus, si la difficulté des tâches dépasse les capacités perçues des individus, l’effet peut se retourner contre l’objectif initial, entraînant un désengagement. Il est donc impératif de calibrer avec soin les interruptions et d’accompagner les personnes concernées en leur offrant des outils pour prioriser et structurer leurs efforts, afin de transformer cette tension cognitive en un moteur positif plutôt qu’en obstacle.
De plus, on peut aussi nommer d'autres limites importantes à prendre en considération :
Bien que l’effet Zeigarnik et l’effet Ovsiankina partagent des fondements communs liés aux tâches interrompues, ils se distinguent par leurs implications psychologiques. Si l’effet Zeigarnik met en lumière notre propension à mieux mémoriser les tâches incomplètes en raison de la tension cognitive qu’elles génèrent, l’effet Ovsiankina explore une dynamique plus comportementale : il incite à reprendre une tâche interrompue pour satisfaire un besoin d’achèvement. Formulé par Maria Ovsiankina, une collaboratrice de Kurt Lewin, cet effet révèle que l’interruption d’une activité déclenche un désir actif de la terminer, particulièrement si celle-ci a été perçue comme importante ou engageante. Alors que l’effet Zeigarnik agit principalement sur la mémoire et la rétention, l’effet Ovsiankina stimule l’action et la persévérance, soulignant une facette essentielle de la motivation humaine face aux défis non résolus.
Le Québec a été le village gaulois de la pandémie pour TVA Nouvelles. Sherbrooke a été le village gaulois du vote Québec Solidaire lors des dernières élections selon Le Devoir, pendant que Montréal devenait le village gaulois libéral pour QUB. Mais ce n'est pas nouveau! Parce que Québec est aussi le village gaulois de l'immobilier en Amérique du Nord pour 985fm, alors qu'Ancienne Lorette est le village gaulois de Québec — le village gaulois du village gaulois, donc. Il y a des villages gaulois pour tout! Pour la langue française, pour la culture, pour le sport, pour la gastronomie... ou contre les e-books. Le village gaulois, c'est un lieu qui résiste, qui se tient. On y sous-entend souvent une force, un entêtement. Mais d'où vient cette idée de village gaulois? Elle nous vient d'Uderzo et Goscinny, les papas d'Astérix et Obélix, qui ont placé le village gaulois au coeur de la Bretagne — une autre contrée de têtes dures.
« Nous sommes en 50 avant Jésus-Christ. Toute la Gaule est occupée par les Romains… Toute ? Non ! Un village peuplé d’irréductibles Gaulois résiste encore et toujours à l’envahisseur. » Voilà l'acte de naissance du village gaulois tel qu'on le connait, daté du 29 octobre 1959, lors de la première apparition d'Astérix dans le journal de bandes dessinées Pilote. Un village inspiré du fort caractère des Bretons et — avouons-le — des Français en général. Et c'est ainsi que d'album en album, nous avons assimilé cette légende, au détriment peut-être de la véritable histoire du village gaulois, courageux et résistant. Courageux? Sans aucun doute! Résistant? Oui et non…
L'histoire se passe dans le Quercy (région du Lot)... et pas dans la Bretagne d'Astérix. Nous sommes en 51 av. J.-C., quelques mois après la bataille d’Alésia — qui va annoncer la capitulation de Vercingétorix. La « France » (qui ne l’est pas encore) est envahie par l'armée de Jules César qui livre des batailles féroces et sans pitié contre les hordes de Gaulois. Deux survivants d’Alésia, Luctérios et Drappès passent une alliance pour continuer la lutte contre César. Ils rassemblent 4000 hommes et se réfugient dans le village d’Uxellodunum qui signifie « forteresse surélevée ». Rapidement, l’armée gauloise est rattrapée par l’armée romaine qui s’installe autour du village. Des stratégies se mettent en place. Le ravitaillement se fait de nuit en catimini, et l’eau est puisée d'un ruisseau voisin. Bref… On va pouvoir tenir longtemps. … Enfin, presque.
Drappès est capturé avec 2000 de ses hommes pendant une opération de ravitaillement. Luctérios échappe à l’embuscade et disparaît dans la nature. Le village est alors isolé, sans chef — mais l’autonomie en vivres et en eau potable est garantie… Enfin, presque.
Les Romains tentent plusieurs incursions dans les palissades entourant le village, sans succès. À Rome, Jules César s’impatiente et envoie 30 000 hommes pour venir à bout des 2000 résistants. Il veut une victoire rapide, mais surtout symbolique : on ne résiste pas à l’Empire. César se déplace en personne et aperçoit le ruisseau. Il ordonne à ses troupes d’en trouver la source et de la boucher, ce qui est fait en quelques jours. Les villageois, leurs chevaux et leurs bestiaux manquent rapidement d’eau, et commencent à mourir de soif. Les pertes sont lourdes, sans aucune intervention militaire frontale. Affaiblis ou mourants, les malheureux se rendent.
Uxellodunum tombe alors dans l'oubli pendant des siècles et des siècles et des siècles... bref, pendant des millénaires. C'est Napoléon III, inconditionnel des récits de Jules César (entre Empereurs, on se comprend) qui va s'intéresser à ce village gaulois et déterrer son histoire.
On sait bien que l'Histoire est toujours écrite par les vainqueurs, mais cette fois, c'est la version des vaincus qui nous est parvenue. Au final, c'est l'histoire banale d'un village banal qui a subi un siège banal. C'est l'histoire de la fin de la Gaule, et d'un César qui n’aura eu qu'à couper le robinet d'un petit bourg pour gagner une bataille. En guise de leçon, il fit couper les deux mains de tous les résistants avant de les renvoyer dans les villages aux alentours. L’idée : envoyer un message clair à la Gaule : voilà ce qui arrive quand tu résistes à César.
Voilà ce qu’on apprend du travail incessant des archéologues. Oui, le village Gaulois a existé, et il a, oui, abrité des combattants valeureux et courageux. Mais l’histoire nous apprend aussi que cette résistance a été de courte durée, et que la fin a été funeste. Pire, elle nous enseigne aussi qu’une bonne stratégie est venue à bout du siège, sans avoir eu recours à l’attaque frontale.
Une petite balade en forêt, ça fait toujours du bien. On respire, on s'évade, on se perd dans ses pensées. Au Japon, on appelle cette pratique le Shinrin-Yoku, littéralement le "bain de forêt". 67% du territoire du Japon est couvert de forêt — c'est plus que les 54% du Québec❶. Dès les années 80, l'Agence Forestière du Japon avait l'intuition que cette balade avait des bienfaits concrets. Elle était allée jusqu'à recommander le Shinrin-Yoku dans la liste des saines habitudes de vie officielles du Japon. Quarante ans plus tard, des chercheurs confirment ces intuitions, avec des observations tout à fait... rafraîchissantes. J'ai tenté d'être le plus fidèle à la recherche originelle plutôt que de rester en surface, pour les plus curieuses et curieux d'entre vous. Pour les tatillons, je vous réfère une revue de littérature récente déposée au CAIRN (2019) rassemblant toutes les recherches à ce sujet❷.
L'idée est de se rendre en forêt dans un objectif de détente et de loisir. On n'est ni dans une course à pied ni dans une chasse au trésor. Bref, l'idée est de marcher dans les bois, tranquilou. C'est tout.
Quand vous marchez dans les bois, vous respirez des substances volatiles organiques nommées phytocides comme l’α pinène et le limonène provenant des arbres. Cela a de nombreuses vertus sur votre coeur, sur vos hormones, sur votre système immunitaire et sur votre psychique. Rien que ça! Voyons-les en détail :
Le rôle principal des systèmes nerveux sympathique et parasympathique est de réguler la tension artérielle et la fréquence cardiaque. Comme son nom ne l'explique pas, l'activité du système nerveux sympathique provoque une augmentation de la pression artérielle et de la fréquence cardiaque, tandis que l'activité du système nerveux parasympathique a l'effet inverse, c'est-à-dire qu'elle les réduit. Un bain de forêt a pour effet de réduire l'activité nerveuse sympathique. De ce fait, le Shinrin-Yoku a pour effet de réduire la tension artérielle et la fréquence cardiaque, provoquant ainsi un effet relaxant.
On a mesuré des effets indirects sur les systèmes endocrinien et immunitaire, plus précisément, il s'agit d'une réduction de l’adrénaline ou la noradrénaline urinaire ainsi qu'un renforcement de l’activité natural killer (NK) dans le sang périphérique. En clair, on parle de la régulation de l'excitation, de la vigilance, de l'apprentissage ou du sommeil. Pour les cellules natural killer (NK), on parle de l'immunité innée, dédiée à la défense contre les virus et l'immunosurveillance des tumeurs cancéreuses. En clair, les cellules NK peuvent tuer les cellules tumorales en libérant des protéines anticancéreuses, et le milieu forestier augmente l’activité NK et la quantité de protéines anticancéreuses, les résultats [...] indiquent que le bain de forêt aurait un effet préventif sur la genèse du cancer." Notez qu'ici, j'ai délibérément laissé la citation entière pour éviter toute mauvaise interprétation, tout raccourci ou maladresse.
Les chercheurs ont fait marcher deux groupes tests. Un groupe en forêt, l'autre en zone urbaine de Tokyo. On a observé que la marche en zone urbaine n'avait pas d'effet significatif sur la tension artérielle, alors qu'en forêt, oui — notez que si un parc urbain est assez arboré, ça fonctionne. 20 minutes ont suffi à faire baisser de manière significative la tension artérielle systolique et diastolique. Les chercheurs ont même suggéré que le bain de forêt constituait, je cite, "une stratégie thérapeutique prometteuse visant à réduire la tension artérielle dans la fourchette optimale, et pour éviter qu’une tension artérielle élevée chez les hommes d’âge moyen n’évolue vers une hypertension."
Les études ont montré que les bains de forêt réduisent sensiblement l’anxiété, la dépression, la colère, la fatigue et la confusion. Les bains de forêt se révèlent particulièrement efficaces pour diminuer le stress mental et pour augmenter la vigueur, le tout mesuré par le test du profil des états d’humeur (PDEH). On a aussi pu observer une action bénéfique sur le système endocrinien et sur les taux des hormones du stress. On observe alors des effets relaxants.
Pour les plus curieuses et curieux d'entre vous, voici la méthodologie qui a été utilisée par les chercheurs❸ :
Maintenant que tous ces bienfaits sont reconnus, voici une série d'avantages possibles pour votre équipe pourvu... d'avoir une forêt pas trop loin, et pourvu que vous les envoyiez promener...
En 1981, l’économiste du travail Sherwin Rosen publie une étude qui, sur le moment, passe presque inaperçue du grand public mais qui, avec le temps, deviendra un texte fondateur dans la compréhension des inégalités de rémunération. Rosen s’intéresse au monde des arts, à ce lien mystérieux entre talent et succès, et à la manière dont de petites différences de compétence peuvent se traduire par des écarts gigantesques de revenus. Ce qu’il décrit alors, on l’appellera plus tard « l’effet Pavarotti ».
Son idée part d’une observation simple : dans de nombreux domaines, il existe une hiérarchie du talent. Certains artistes, athlètes ou dirigeants sont légèrement meilleurs que leurs concurrents. Mais ce « légèrement » cache un effet multiplicateur disproportionné. Si Luciano Pavarotti chante seulement 5 % mieux que le deuxième meilleur ténor au monde, la différence de revenus entre les deux ne sera pas de 5 %. Elle pourra être de dix fois, cent fois, mille fois plus élevée.
Pourquoi ? Parce que la performance d’exception attire l’ensemble du marché. Avant le XXe siècle, une cantatrice comme Mrs Billington, aussi talentueuse fût-elle, ne pouvait se produire que devant quelques centaines de spectateurs à la fois. Sa renommée restait confinée à ceux qui pouvaient la voir chanter en personne. Avec l’arrivée de la radio, puis des disques, la voix d’un artiste pouvait atteindre simultanément des millions d’oreilles. Dans ce monde élargi, il n’y a de place que pour une poignée de noms : les meilleurs captent presque toute l’attention… et presque tout le revenu.
Rosen ne se limite pas aux arts. Il voit la même mécanique à l’œuvre dans le sport, dans la finance, dans toute activité où la reconnaissance du public et la diffusion technologique amplifient les écarts. Ce qu’il modélise est désormais connu sous le nom « d’économie des superstars ».
L’exemple musical reste parlant. Enregistrer un album coûte cher : studio, ingénieurs du son, musiciens. Mais une fois la captation faite, le coût marginal de chaque exemplaire vendu est presque nul. Vendre cent copies ou cent millions de copies coûte quasiment la même chose à la maison de disques. L’artiste qui remporte le cœur du public rafle l’essentiel des ventes — et laisse peu d’espace à ses concurrents, même talentueux.
C’est cette logique qui a permis à des entreprises comme Amazon, Facebook ou Google de dominer leur marché. Amazon peut investir massivement dans ses infrastructures logistiques, mais une fois le système en place, traiter une commande supplémentaire ne coûte presque rien. Facebook construit une plateforme, et chaque nouvel utilisateur représente une monétisation supplémentaire à coût quasi nul. Google indexe le web une fois, et peut ensuite répondre à des milliards de requêtes avec un coût marginal infime.
Dans un tel environnement, la prime au leader est écrasante. Et l’Intelligence Artificielle promet d’amplifier encore cette dynamique. En 2023, lors de la Robin Hood Investors Conference, Sam Altman a avancé qu’il y aurait très bientôt une entreprise valorisée à un milliard de dollars, dirigée par… une seule personne. L’effet Pavarotti poussé à son extrême : un individu combinant talent, technologie et distribution globale pour produire et capter une valeur autrefois réservée à des milliers de travailleurs.
Les manifestations de ce phénomène sont visibles partout. Le commerce en ligne ? Amazon s’arroge près d’un tiers des ventes aux États-Unis et continue de grignoter le reste. Les réseaux sociaux ? Facebook, avec plus de deux milliards d’utilisateurs, conserve une avance telle que ses concurrents n’existent souvent que dans des niches. La recherche en ligne ? Google détient une part de marché mondiale de 93 %, rendant invisibles les alternatives. Dans le sport professionnel, la finance ou la technologie, les rémunérations au sommet atteignent des niveaux qui dépassent l’imagination de générations précédentes.
Ce qui est fascinant — et inquiétant —, c’est que cet effet n’incite pas seulement à viser l’excellence : il pousse à courir après le dernier pourcentage, cette amélioration marginale qui permet de se distinguer du reste. La réputation devient alors un actif stratégique : la notoriété n’est plus un simple résultat du succès, elle en est une condition préalable. Et grâce à l’effet réseau d’internet, la visibilité initiale attire encore plus de visibilité, créant un cercle vertueux pour les uns… et vicieux pour les autres.
La mondialisation accentue encore ce mouvement : un acteur dominant dans son marché local peut désormais dominer la planète. Les meilleurs talents se concentrent chez les leaders, renforçant leur avance. Les modèles d’affaires traditionnels peinent à résister : Carrefour, conçu pour un monde où chaque ville avait ses propres magasins, se retrouve face à Amazon, pensé pour un marché global.
L’effet Pavarotti ne vient pas sans coûts pour la société. Il alimente d’abord les inégalités : quelques individus ou entreprises captent la majorité des richesses, laissant le reste de la population se partager des miettes. Il crée aussi des situations de quasi-monopole qui peuvent étouffer l’innovation et réduire la diversité de l’offre. Enfin, le « winner takes all » exerce une pression psychologique considérable : dans certains secteurs, il ne suffit plus d’être bon, il faut être le meilleur — et le rester sans relâche.
En 1981, Rosen ne pouvait pas imaginer que, quarante ans plus tard, un jeune chercheur en intelligence artificielle deviendrait l’incarnation parfaite de son intuition. Matt Deitke, 24 ans, a récemment signé un accord de 250 millions de dollars avec Meta. Son histoire condense l’effet Pavarotti dans sa version la plus contemporaine : un talent rare, dans un domaine où la performance marginale a une valeur démesurée, propulsé par un marché global en quête de leaders incontestés. La Silicon Valley vit aujourd’hui une guerre des talents sans précédent, où les entreprises sont prêtes à déployer des sommes colossales pour s’attacher les services d’esprits capables de prendre une longueur d’avance technologique. Dans cette arène, les Pavarotti d’hier chantent désormais en langage machine — et la scène est planétaire.

Ce contexte impose une adaptation rapide aux organisations. Elles doivent repenser leur manière de se différencier, choisir soigneusement les niches où elles peuvent exceller, et envisager la collaboration plutôt que la confrontation frontale avec les géants. Dans un monde où la technologie réduit le coût marginal à presque zéro, la stratégie ne peut plus se contenter d’optimiser les opérations : elle doit miser sur la singularité, la relation et l’innovation continue.
SAAQclic devait coûter 638 millions de dollars. La facture dépasse aujourd'hui le milliard. Le système a été lancé en février 2023 alors que les tests n'étaient même pas terminés. Des concessionnaires ne pouvaient plus livrer de véhicules. Des citoyens ne pouvaient plus renouveler leur permis. La vérificatrice générale a été limpide : coûts trois fois plus élevés, tests non complétés, informations cachées au conseil d'administration. Et le nouveau système s'est révélé moins performant que l'ancien.
Un échec sur toute la ligne. Et pourtant, personne ne s'en étonne vraiment.
On reconnaît le scénario parce qu'on l'a déjà vu. En 2016, le gouvernement fédéral lançait Phénix, un système de paie censé remplacer d'un seul coup des dizaines de systèmes pour 309 millions de dollars. Neuf ans et quatre milliards plus tard, il reste 300 000 erreurs de paie non résolues. Le vérificateur général du Canada a qualifié le projet d'« échec incompréhensible ». Et le système s'est révélé moins efficace que celui de quarante ans qu'il venait remplacer.
Et si on sort de l'informatique, le pattern tient toujours. En santé, le Québec en est à sa quatrième restructuration majeure en vingt ans. Chaque fois, on refond les structures, on centralise, on fusionne. Chaque fois, les mêmes critiques reviennent. Santé Québec regroupe aujourd'hui 330 000 employés sous un seul employeur. Après un an, les syndicats parlent de « chaos ». Un responsable syndical résumait : « Ça fait des décennies qu'on répète les mêmes erreurs. Centraliser toujours plus et consulter toujours moins. »
Et ce n'est pas un phénomène québécois. Le privé international accumule les mêmes débris. Nike a investi 400 millions de dollars pour refondre sa chaîne d'approvisionnement d'un coup : 100 millions en ventes perdues, chute de 20 % de l'action en bourse, cinq ans supplémentaires pour remettre le système debout. Lidl, le géant allemand du rabais, a travaillé sept ans sur un système SAP à 580 millions de dollars pour remplacer ses 90 solutions internes par une seule — avant de tout abandonner et de revenir à l'ancien système. Hershey's a raté Halloween 1999 — 100 millions en commandes impossibles à traiter — parce que son nouveau système n'était pas prêt. Revlon n'arrivait plus à fabriquer ni à livrer ses produits après sa migration SAP. Haribo a vu ses tablettes vides et ses ventes chuter de 25 % pour les mêmes raisons. La U.S. Navy a dépensé un milliard de dollars en quatre tentatives de systèmes de paie, sans jamais réussir. Chaque fois, le même réflexe : on jette l'ancien, on conçoit du neuf, on déploie massivement. Chaque fois, le même résultat.
Bref, les virages à 90° vont droit dans le mur. Mais pourquoi donc?
En 1975, un pédiatre américain du nom de John Gall a publié General Systemantics: An Essay on How Systems Work, and Especially How They Fail. Refusé par trente éditeurs, auto-publié, puis réédité trois fois — la dernière sous le titre The Systems Bible. Au cœur du livre, une phrase devenue célèbre sous le nom de « loi de Gall » :
Un système complexe qui fonctionne s'est invariablement développé à partir d'un système simple qui fonctionnait. Un système complexe conçu à partir de zéro ne fonctionne jamais, et on ne peut pas le rafistoler pour qu'il fonctionne. Il faut recommencer avec un système simple qui marche.
Gall — qui était pédiatre, pas consultant en management — avait observé ce phénomène dans les hôpitaux, les administrations, les programmes gouvernementaux. Son exemple le plus savoureux : le hangar de préparation des fusées à Cap Canaveral est si grand qu'il génère son propre climat, incluant des nuages et de la pluie. La structure censée protéger les fusées les arrose.
Sa conclusion : les systèmes complexes ne peuvent pas être « fabriqués ». Ceux qui fonctionnent ont tous évolué à partir de quelque chose de simple qui tenait debout.
À la même époque où SAAQclic s'enfonçait, un autre projet d'État réussissait sous le radar. La SQDC a été mise sur pied en moins d'un an et fonctionnait dès le jour de la légalisation du cannabis en octobre 2018. Réseau de succursales opérationnel, site de vente en ligne fonctionnel, approvisionnement sécurisé. Jean-François Bergeron, responsable de la mise sur pied, a parlé d'un « tour de force ».
Comment ? En ne repartant pas de zéro.
La SQDC a été créée comme filiale de la SAQ. Même infrastructure logistique, même expertise en commerce de détail, mêmes réflexes opérationnels. On a greffé un nouveau mandat sur un système qui fonctionnait déjà. Simple d'abord : une vingtaine de succursales, une centaine de produits. Puis on a construit dessus.
Et la SAQ elle-même est un cas d'école. Quand Gaétan Frigon en prend la présidence en 1998, la société d'État souffre de ce qu'il appellera « la maladie du monopole ». Aucune croissance depuis dix ans. Des succursales fermées le dimanche dans des centres commerciaux où les trente autres commerces sont ouverts.
Frigon n'a pas commandé un grand plan stratégique à une firme de consultation. Il a fait le tour des succursales en Gaspésie, a compté les magasins ouverts le dimanche — trente sur trente et un, le seul fermé étant la SAQ — et il les a ouverts. Six cents emplois de plus. Le dimanche est devenu la deuxième journée de ventes en moins d'un an.
Puis il a enchaîné : circulaires, promotions, paiement par carte de crédit, trois bannières (Classique, Express, Sélection), transformation des vendeurs en « conseillers en vin ». Chaque geste simple, greffé sur ce qui fonctionnait déjà. En quatre ans, la SAQ est passée de hors palmarès à troisième entreprise la plus admirée des Québécois.
Son message aux troupes : « Si on veut que nos clients n'appellent pas à la privatisation, soyons les meilleurs. »
Le privé québécois connaît le même principe, même s'il ne cite pas Gall. Desjardins perdait 80 000 membres en cinq ans et traînait au huitième rang en satisfaction client parmi les institutions financières canadiennes. La réponse classique aurait été une refonte technologique massive. Desjardins a plutôt choisi vingt produits prioritaires — ouverture de compte, carte de crédit, renouvellement hypothécaire — et les a numérisés un par un. Cinq ans plus tard : les ventes en ligne sont passées de 25 % à 40 %, quatorze points devant la moyenne canadienne, et le NPS a bondi de onze points. Du huitième rang au deuxième. Nathalie Larue, première vice-présidente, résume l'approche : « Ne jamais isoler le chantier numérique. »
Couche-Tard a suivi la même logique pendant quarante ans. Un seul dépanneur à Laval en 1980. Puis des acquisitions ciblées, digérées une à une — d'abord au Québec, puis au Canada, puis aux États-Unis, puis en Scandinavie, puis en Asie. Chaque marché absorbé avant de passer au suivant. Aujourd'hui : 16 700 magasins dans 27 pays, l'action multipliée par mille. Alain Bouchard n'a jamais tenté de devenir un géant mondial d'un seul coup. Il a construit sur ce qui marchait, encore et encore.
Et Bombardier est peut-être l'exemple le plus spectaculaire. En 2020, l'entreprise frôlait l'écrasement : endettement massif, divisions vendues les unes après les autres, flux de trésorerie négatifs. Éric Martel a pris les commandes avec un plan de redressement sur cinq ans — pas une refonte totale, mais un recentrage progressif : aviation d'affaires d'abord, puis services après-vente, puis défense. Chaque étape construite sur la précédente. En 2025, Bombardier a dépassé tous les objectifs de son plan : 9,55 milliards de revenus, cinquième année consécutive de croissance, un carnet de commandes de 17,5 milliards. Le cas fait désormais l'objet d'études à Harvard et à Columbia. Martel résume : « Nous avons transformé l'entreprise. » Mais il l'a fait morceau par morceau.
La loi de Gall est contre-intuitive pour quiconque vend de la transformation. L'ambition dit : « On voit le problème, on a les ressources, on y va. » La loi de Gall répond : « Plus vous concevez grand d'emblée, plus vous avez de chances d'échouer. »
C'est un problème pour les grandes firmes de consultation, dont le modèle d'affaires repose sur la refonte totale. On diagnostique, on recommande un plan en 200 diapositives, on facture des millions, et on laisse le client avec un système complexe conçu à partir de zéro. Exactement ce que Gall dit de ne jamais faire.
Les organisations qui changent vraiment commencent plus petit que ce qui semble confortable. Une habitude. Une réunion. Une décision qui tient. Puis elles construisent dessus. Non pas parce qu'elles manquent d'ambition — mais parce qu'un système qui fonctionne gagne le droit de grandir. Un système qui ne fonctionne pas s'effondre sous son propre poids.
La question que Gall poserait à n'importe quel comité de direction : Quelle est la version la plus simple du changement que vous essayez de faire ?
Si la réponse prend plus de deux phrases, c'est qu'on n'a pas encore trouvé le système simple.