




Soyons honnêtes, on a tous déjà quitté le bureau à 16h30 au lieu de 17h. On respecte généralement les règles, mais pas toujours. Certains ont peur des sanctions ou agissent par principe, d’autres suivent le groupe, et quelques-uns ignorent les règles, peu importe les conséquences. Ce n’est pas nous qui le disons, mais bien Simon Gächter, Lucas Molleman et Daniele Nosenzo, de brillants chercheurs en sciences comportementales et économiques.
Dans l’article « Why people follow rules », Gächter, Molleman et Nosenzo nous présentent la conformité aux règles (C) comme la fonction mathématique: C=ƒ(R;I;S;P). Autrement dit, respecter une règle dépend de plusieurs variables. Voici comment ils les décortiquent :
Pour rendre tout cela plus concret, nous avons vulgarisé l’étude en trois effets que vous avez sûrement dû déjà observer : l’effet mouton, l’effet pomme pourrie et l’effet maternel. Trois images simples pour comprendre pourquoi on suit les règles… ou pas!
L’effet du mouton fait référence aux « attentes sociales » du modèle CRISP. C’est-à-dire l’influence des autres sur nos décisions, surtout lorsqu’il est question de respecter une règle. Ce phénomène n’a rien de nouveau. Déjà en 330 avant J.-C., Aristote affirmait que l’humain est un « animal social et politique ». Nous vivons en groupe, nous partageons des normes, et nous nous ajustons les uns aux autres. En d’autres termes, comme un troupeau, nous captons les mouvements avant de faire le nôtre.
Environ 30 % des individus adaptent leur comportement à celui du groupe. Si l’heure officielle de départ est 17 h, mais que tout le monde quitte à 17 h 30, plusieurs vont suivre. Formellement, la règle n’a pas changé, mais la norme informelle, elle, s’est déplacée.
Mais attention : suivre le groupe n’explique pas tout. Parfois, ce n’est pas le troupeau qui entraîne, c’est une seule pomme qui abîme tout le panier. Parlons justement de l’effet de la « pomme pourrie ».
Toujours dans la logique des attentes sociales, mais sous l’angle inverse : ici, ce n’est pas le groupe qui nous élève, c’est un individu qui nous tire vers le bas, comme une pomme pourrie qui contamine ses semblables!
L’expression « a rotten apple quickly infects its neighbor » remonte au 14ᵉ siècle. Benjamin Franklin la popularise ensuite au 18ᵉ. L’idée traverse le temps, mais ce n’est qu’en 2007 que le chercheur Will Felps la valide scientifiquement : la présence d’un seul individu négatif, déviant ou non coopératif peut détériorer la dynamique et la performance d’un groupe entier.
Concrètement, voir quelqu’un enfreindre une règle ne nous fait pas immédiatement changer d’avis. On continue de croire que la règle est valable, mais la transgression devient un peu plus acceptable. Si un collègue part à 16 h 30 chaque jour et que d’autres commencent à le faire, vous allez commencer à penser que « ce n’est pas si grave » de faire la même chose. Encore une fois, la règle n’a pas changé, elle s’est érodée!
Avant d’aborder le thème des sanctions, voyons d’abord un levier tout aussi important : celui des préférences sociales dans le modèle CRISP.
Les règles existent souvent pour protéger autrui. Lorsqu’on comprend qu’une infraction nuit aux autres, leur respect augmente de 55 % à… 61 %! Autrement dit, une règle est mieux suivie lorsqu’elle a du sens pour le collectif.
C’est ce qu’on appelle l’effet « maternel », ou mama bear syndrome. On respecte la règle non par peur ni par conformisme, mais par instinct de protection.
Si vos collègues travaillent tard sur un dossier important, vous serez naturellement porté à rester passer les 17 heures pour les aider. Pas parce qu’on vous l’impose, mais parce que quelqu’un en bénéficiera.
S’il est vrai que les attentes sociales nous influencent, les sanctions jouent elles aussi un rôle. C’est la variable incitations extrinsèques (I) du modèle CRISP. Mais attention : toutes les sanctions n’augmentent pas automatiquement l’obéissance d’un groupe. Certaines peuvent même produire l’effet inverse.
Lorsque la probabilité d’être sanctionné est faible, la conformité augmente à peine : de 61 % à 62 %. Autrement dit, la simple menace a peu d’effet si elle n’est pas suivie d’actions concrètes. Par exemple, si la direction rappelle que l’heure de départ est fixée à 17 h, mais que les contrôles sont rares et les conséquences inexistantes, les départs anticipés continueront. La règle existe, mais elle manque de crédibilité.
À l’inverse, lorsque la sanction est hautement probable, l’obéissance inconditionnelle passe de 26 % à 57 %. Ainsi, si la direction inscrit une note au dossier dans la majorité des cas de départs précoces, le respect de l’heure officielle augmente. La différence tient à un élément clé : la sanction n’est plus théorique, elle est perçue comme réelle et crédible.
Les sanctions ne devraient jamais être le réflexe automatique. Oui, elles peuvent dissuader, mais seulement si elles sont proportionnées et crédibles. Pour des règles du quotidien comme l’heure de départ, le sens est souvent plus puissant que la menace.
Ce qu’il faut faire? Expliquer le « pourquoi » derrière la règle! Si un gestionnaire explique qu’il faut rester jusqu’à 17 h pour assurer la collaboration avec l’équipe en Australie, la règle cesse d’être arbitraire. Elle devient logique. Quand une règle fait sens, on est beaucoup plus enclin à la respecter.
Bonne nouvelle : plus de la moitié des gens, entre 55 et 70 %, respectent les règles par principe, même en l’absence de sanction. Les chercheurs parlent ici de respect intrinsèque (R) dans le modèle CRISP. Alors pas de panique! Si vous changez l’heure officielle de départ à 18 h, une bonne partie de l’équipe attendra patiemment les six coups de 18 h avant de quitter. Mais puisque la norme au Québec reste 17 h, on ne vous le conseille pas!
Respecter une règle n’est jamais un effort individuel, c’est un phénomène collectif. On suit une règle quand on voit que les autres la suivent… et que les écarts ont des conséquences. Une sanction crédible, même légère, vaut mieux qu’une sanction sévère mais rare. Si personne n’est repris, la règle devient rapidement optionnelle. Et attention à la “pomme pourrie” : une seule personne qui déroge sans conséquence suffit à banaliser la transgression. Au fond, ce ne sont pas les règles qui comptent… mais le système qui les rend visibles, réelles et inévitables.
Gächter, S., Molleman, L., & Nosenzo, D. (2025). Why people follow rules. Nature Human Behaviour, 9, 1342–1354 : https://doi.org/10.1038/s41562-025-02196-4
En 1981, l’économiste du travail Sherwin Rosen publie une étude qui, sur le moment, passe presque inaperçue du grand public mais qui, avec le temps, deviendra un texte fondateur dans la compréhension des inégalités de rémunération. Rosen s’intéresse au monde des arts, à ce lien mystérieux entre talent et succès, et à la manière dont de petites différences de compétence peuvent se traduire par des écarts gigantesques de revenus. Ce qu’il décrit alors, on l’appellera plus tard « l’effet Pavarotti ».
Son idée part d’une observation simple : dans de nombreux domaines, il existe une hiérarchie du talent. Certains artistes, athlètes ou dirigeants sont légèrement meilleurs que leurs concurrents. Mais ce « légèrement » cache un effet multiplicateur disproportionné. Si Luciano Pavarotti chante seulement 5 % mieux que le deuxième meilleur ténor au monde, la différence de revenus entre les deux ne sera pas de 5 %. Elle pourra être de dix fois, cent fois, mille fois plus élevée.
Pourquoi ? Parce que la performance d’exception attire l’ensemble du marché. Avant le XXe siècle, une cantatrice comme Mrs Billington, aussi talentueuse fût-elle, ne pouvait se produire que devant quelques centaines de spectateurs à la fois. Sa renommée restait confinée à ceux qui pouvaient la voir chanter en personne. Avec l’arrivée de la radio, puis des disques, la voix d’un artiste pouvait atteindre simultanément des millions d’oreilles. Dans ce monde élargi, il n’y a de place que pour une poignée de noms : les meilleurs captent presque toute l’attention… et presque tout le revenu.
Rosen ne se limite pas aux arts. Il voit la même mécanique à l’œuvre dans le sport, dans la finance, dans toute activité où la reconnaissance du public et la diffusion technologique amplifient les écarts. Ce qu’il modélise est désormais connu sous le nom « d’économie des superstars ».
L’exemple musical reste parlant. Enregistrer un album coûte cher : studio, ingénieurs du son, musiciens. Mais une fois la captation faite, le coût marginal de chaque exemplaire vendu est presque nul. Vendre cent copies ou cent millions de copies coûte quasiment la même chose à la maison de disques. L’artiste qui remporte le cœur du public rafle l’essentiel des ventes — et laisse peu d’espace à ses concurrents, même talentueux.
C’est cette logique qui a permis à des entreprises comme Amazon, Facebook ou Google de dominer leur marché. Amazon peut investir massivement dans ses infrastructures logistiques, mais une fois le système en place, traiter une commande supplémentaire ne coûte presque rien. Facebook construit une plateforme, et chaque nouvel utilisateur représente une monétisation supplémentaire à coût quasi nul. Google indexe le web une fois, et peut ensuite répondre à des milliards de requêtes avec un coût marginal infime.
Dans un tel environnement, la prime au leader est écrasante. Et l’Intelligence Artificielle promet d’amplifier encore cette dynamique. En 2023, lors de la Robin Hood Investors Conference, Sam Altman a avancé qu’il y aurait très bientôt une entreprise valorisée à un milliard de dollars, dirigée par… une seule personne. L’effet Pavarotti poussé à son extrême : un individu combinant talent, technologie et distribution globale pour produire et capter une valeur autrefois réservée à des milliers de travailleurs.
Les manifestations de ce phénomène sont visibles partout. Le commerce en ligne ? Amazon s’arroge près d’un tiers des ventes aux États-Unis et continue de grignoter le reste. Les réseaux sociaux ? Facebook, avec plus de deux milliards d’utilisateurs, conserve une avance telle que ses concurrents n’existent souvent que dans des niches. La recherche en ligne ? Google détient une part de marché mondiale de 93 %, rendant invisibles les alternatives. Dans le sport professionnel, la finance ou la technologie, les rémunérations au sommet atteignent des niveaux qui dépassent l’imagination de générations précédentes.
Ce qui est fascinant — et inquiétant —, c’est que cet effet n’incite pas seulement à viser l’excellence : il pousse à courir après le dernier pourcentage, cette amélioration marginale qui permet de se distinguer du reste. La réputation devient alors un actif stratégique : la notoriété n’est plus un simple résultat du succès, elle en est une condition préalable. Et grâce à l’effet réseau d’internet, la visibilité initiale attire encore plus de visibilité, créant un cercle vertueux pour les uns… et vicieux pour les autres.
La mondialisation accentue encore ce mouvement : un acteur dominant dans son marché local peut désormais dominer la planète. Les meilleurs talents se concentrent chez les leaders, renforçant leur avance. Les modèles d’affaires traditionnels peinent à résister : Carrefour, conçu pour un monde où chaque ville avait ses propres magasins, se retrouve face à Amazon, pensé pour un marché global.
L’effet Pavarotti ne vient pas sans coûts pour la société. Il alimente d’abord les inégalités : quelques individus ou entreprises captent la majorité des richesses, laissant le reste de la population se partager des miettes. Il crée aussi des situations de quasi-monopole qui peuvent étouffer l’innovation et réduire la diversité de l’offre. Enfin, le « winner takes all » exerce une pression psychologique considérable : dans certains secteurs, il ne suffit plus d’être bon, il faut être le meilleur — et le rester sans relâche.
En 1981, Rosen ne pouvait pas imaginer que, quarante ans plus tard, un jeune chercheur en intelligence artificielle deviendrait l’incarnation parfaite de son intuition. Matt Deitke, 24 ans, a récemment signé un accord de 250 millions de dollars avec Meta. Son histoire condense l’effet Pavarotti dans sa version la plus contemporaine : un talent rare, dans un domaine où la performance marginale a une valeur démesurée, propulsé par un marché global en quête de leaders incontestés. La Silicon Valley vit aujourd’hui une guerre des talents sans précédent, où les entreprises sont prêtes à déployer des sommes colossales pour s’attacher les services d’esprits capables de prendre une longueur d’avance technologique. Dans cette arène, les Pavarotti d’hier chantent désormais en langage machine — et la scène est planétaire.

Ce contexte impose une adaptation rapide aux organisations. Elles doivent repenser leur manière de se différencier, choisir soigneusement les niches où elles peuvent exceller, et envisager la collaboration plutôt que la confrontation frontale avec les géants. Dans un monde où la technologie réduit le coût marginal à presque zéro, la stratégie ne peut plus se contenter d’optimiser les opérations : elle doit miser sur la singularité, la relation et l’innovation continue.
C'est à Richard Buckminster Fuller que nous devons la théorie de la Knowledge Doubling Curve, une prédiction dictée en 1980 et qui se vérifie aujourd'hui.
Bucky était le mauvais garçon de la Silicon Valley. Plusieurs fois viré de Harvard, il est devenu une inspiration pour le mouvement cybernétique et un gourou pour la communauté technologique naissante des années 60. Véritable touche-à-tout, architecte, designer, inventeur fou et futurologue, il est le papa de la biosphère de Montréal, et celui d'une théorie : la connaissance collective est exponentielle.
Cette théorie a peu été relayée par les universitaires de l’époque, mais tout s’explique par la réputation académique de Bucky. Or, aujourd’hui, elle résonne comme une véritable prédiction. L’idée : la connaissance collective à vitesse exponentielle. Attention, pas l’intelligence collective, la connaissance collective !

Il fallait 100 ans pour que la connaissance collective double en 1900.
Il fallait 25 ans pour que la connaissance collective double au milieu du siècle dernier.
Il fallait 13 mois pour que la connaissance collective double en 2016.
IBM a même poursuivi ces projections et annonce que le savoir doublera toutes les... douze heures, en 2036.
Pensez au corpus de connaissances de la médecine De Humani Corporis Fabrica (sur la structure du corps humain), qui fut l’œuvre majeure d’André Vésale, et véritable référence pour tous les scientifiques du xvie siècle. Tout était là. Toute la connaissance de la médecine rassemblée dans une seule œuvre publiée en 1543. Ce fut un tournant dans l’histoire de la médecine et de l’étude de l’anatomie humaine. Cet ouvrage était si imposant qu’il est souvent confondu avec une encyclopédie en raison de sa vaste couverture du sujet et de sa contribution fondamentale à la compréhension du corps humain. Tout le savoir de l’humanité sur l’humain ! Bon, eh bien De Humani Corporis Fabrica comptait 659 pages illustrées. Imaginez, en moins de 700 pages, on savait tout sur tout, sur la médecine du xvie siècle. Imaginez maintenant le volume de connaissances que nous avons sur le corps humain aujourd’hui !
Ou pensez encore à l’effervescence des sciences après la Deuxième Guerre mondiale, en partie produite par la fuite des cerveaux d’Europe centrale vers les universités américaines après l’élection d’Hitler en 1933. Tous les grands campus américains ont hérité de ces exilés allemands, autrichiens, hongrois, polonais expulsés par le régime nazi — notamment grâce à la fondation Rockefeller. Cette dernière mit en place un fonds d’aide spéciale pour les chercheurs destitués (Aid Fund for Deposed Scholars) destiné à financer des universitaires et intellectuels européens contraints de fuir le nazisme. Entre 1933 et 1942, ce programme permit d’aider plusieurs centaines d’intellectuels à trouver refuge sur des campus américains. Sans faire d’angélisme — l’accueil des chercheurs juifs était tout de même timide : il suffit de s’intéresser au parcours d’Einstein pour s’en convaincre —, ces années furent fructueuses sur le plan scientifique.
Les disciplines se croisèrent, les savoirs s’entrechoquèrent, et de nouveaux modes de pensée ont émergé de ces mélanges. C’est la naissance de la hiérarchie des besoins et des motivations de Maslow, c’est le début du design thinking, des focus groups, de l’informatique de Von Neumann en 1945, et bientôt de l’intelligence artificielle en 1955, avec la fine équipe de Dartmouth.
Ces inventions, combinées, ont accéléré davantage la production de connaissances, liée depuis à la puissance des ordinateurs. Depuis l’invention de l’ordinateur, la recherche est liée à la puissance des microprocesseurs, avec une loi bien connue (et parfois contestée), la loi de Moore. Gordon Moore était un des cofondateurs d’Intel, et un des papas du microprocesseur. Sa loi n’est pas tant une loi physique qu’une observation empirique, mais elle a fait foi pendant des décennies. Voilà ce qu’elle dit : à coût constant, la vitesse des microprocesseurs double tous les 18 mois. Une prédiction de 1965 — que Buckminster Fuller avait anticipée plusieurs années auparavant — restée vraie jusqu’en 2015, la physique imposant des barrières naturelles à la progression de cette vitesse. Moore avait lui-même prévu la limite de sa propre loi. Une limite physique insurmontable, puisqu’en dessous d’une échelle nanométrique (sous 10 nm), il devient difficile de miniaturiser davantage les microprocesseurs sans faire face à des problèmes complexes : effets quantiques, dissipation thermique, limitations de la lithographie, etc. Dès lors, il a été plus facile de multiplier les processeurs que de miniaturiser les microprocesseurs.
C’était sans compter le génie des équipes de Jensen Huang, grand patron de NVIDIA. En 2019, il déclare la mort de la loi de Moore et qu’il faudra désormais compter sur d’autres types de technologie… Optimisation des architectures, parallélisation des cœurs de processeurs et spécialisation des microprocesseurs (notamment les GPU) ont révolutionné l’approche de l’informatique matérielle. L’accélération des ordinateurs est redevenue possible, accélérant encore et encore la production de connaissances.
Aujourd’hui, les chercheurs ne cherchent plus. Ils ont produit des IA capables de chercher à leur place, donc de plus en plus vite. Par exemple, cette IA nommée M3GNet, développée par l’Université de Californie, a « inventé » une base de données de plus de 31 millions de nouveaux matériaux inexistants, en prédisant également leurs propriétés. Grâce à M3GNet, l’humanité découvre de nouveaux matériaux à une vitesse totalement inédite, vertigineuse.

Alors ? Buckminster était-il fou de considérer que la connaissance allait grandir à une vitesse exponentielle ? Au-delà de notre ressenti, quelle preuve tangible peut-on produire pour montrer le bien-fondé de son intuition ? La réponse est arrivée chez Perrier Jablonski au détour d’un mandat, pour lequel nous avions à creuser le sujet. Nous sommes tombés sur une étude édifiante, celle de l’American Clinical and Climatological Association, publiée en 2011.
Cette étude voulait alerter l’administration Obama sur les défis de la formation des médecins, dans un monde où la connaissance grandit si vite. Et le rapport donne des chiffres. Évidemment, ces chiffres sont faciles à obtenir à une époque où tout se compte (brevets, recherches, mémoires, etc.). Les voici.
Il fallait 50 ans pour que la connaissance médicale double en 1950, 7 ans en 1980, 3 ans et demi en 2010... et... 73 jours en 2020. Un étudiant qui a commencé ses études de médecine en 2010 est devenu médecin en 2017. Dans ce même laps de temps, la connaissance médicale a doublé trois fois.
Si vous pensiez que le monde allait certainement ralentir un jour, j’ai une réponse pour vous. Enfin, pas moi, mais le président de Google, Sundar Pichai, qui annonçait en 2019 les premiers tests du premier processeur quantique, le Sycamore 54-qubit. Sycamore a réalisé un calcul complexe en 3 minutes et 20 secondes... alors qu’il faudrait 10 000 ans aux meilleurs super calculateurs du marché. Bien évidemment, il s’agit d’un test réalisé dans des conditions impossibles à reproduire dans le quotidien... Mais ce n’est qu’une question de temps.
Trois minutes contre 10 000 ans. Non, l’accélération n’est pas prête de ralentir...

Cette question du bonheur au travail est récente. Les racines mêmes du mot travail — du latin tripalium, un instrument de torture — nous rappellent que travail et bonheur n’ont pas toujours fait bon ménage. Alors que le XVIIIe siècle fera du travail un moyen d’émancipation, la révolution industrielle va consacrer une nouvelle aristocratie, celle des entrepreneurs qui réussissent par le travail, rompant avec la tradition d’une élite oisive. Les années d’après-guerre vont organiser le travail et le rendre moins pénible. Les années 80 vont célébrer l’épanouissement par le succès. Travailler. Travailler toujours plus.
Trente ans plus tard, de nouvelles générations arrivent sur le marché du travail. Un marché dont elles contestent les principes. Vision, valeurs communes, vérité, qualité de vie, etc. : elles cherchent plus qu’un salaire.
Face à cette révolution, tous les départements de ressources humaines se sont questionnés sur leur méthode de recrutement et de rétention. Et depuis quelques années, un vent californien est venu souffler sur la culture de nos entreprises, imposant le bonheur au travail comme nouvel idéal. Des classiques baby-foot et chefs étoilés à la cafétéria, la Silicon Valley est rapidement passée aux toboggans géants, aux horaires libres en passant par l’holacratie, où la hiérarchie n’existe plus. Chief Happiness Officier, Jolly Good Fellow, ou encore Mister Happiness, l’imagination (et le ridicule) n’a pas de limites quand on doit faire valoir l’intérêt primordial du bonheur des employés dans son entreprise.
En décembre 2022, on comptait déjà 137 000 licenciements dans le monde merveilleux de la Silicon Valley. Un réveil brutal pour la machine à rêves. Mais c'était sans compter sur janvier 2023 : Amazon, Twitter, Meta, Google, Yahoo, GitHub, GoDaddy, eBay, Dell, Paypal... on dépasse déjà les 77 000 nouveaux licenciements début 2023. Le premier mois de l'année représente déjà 50% des licenciements de l'année précédente. Si ce retour à la réalité est brutal, il ne l'est pas pour tout le monde. Dans une déclaration de février 2022, Mark Zuckerberg annonçait qu'il était temps de mettre à jour les valeurs de l'entreprise, pour "Meta, Metamates, Me". Traduction : la boîte d'abord, les collègues ensuite, l'individu en dernier... Avant de couper 13% des effectifs — 11 000 personnes. Il avait prévenu : l'individu en dernier. Résultat de ce grand ménage : la fortune du patron de Meta a grimpé de 23% en février 2023 pour atteindre un record historique de 68 Milliards US. L'individu en dernier, vraiment?
Aujourd'hui, les Chiefs Happiness Officiers passent leurs journées à envoyer des courriels de licenciements automatisés et à remercier pour les bons et loyaux services. En passant, n'oubliez pas de rendre votre carte d'accès au bureau du Jolly Good Fellow.
Non, la Californie n'était pas un modèle à suivre. Non, le bonheur au travail n'était pas un outil d'épanouissement de l'individu. C'était juste un truc marketing au profit de l'entreprise. Un bidule qui ne fonctionne que par beau temps, qui déconne à la première vague et qui se brise en cas de tempête. Il faut tout remettre à plat.
Les entreprises ont tout misé sur le haut de la pyramide de Maslow, en prônant l'élévation, en motivant l'appartenance, l'estime de soi et l'accomplissement. Ce faisant, elles ont peut-être délaissé les besoins de base, comme la sécurité. C'était vrai avant la pandémie pour certains employés... C'est vrai aujourd'hui pour la totalité des employés. L'inquiétude collective nous force à une bienveillance nouvelle, tournée vers des besoins primaires. Vos employés ont besoin de sécurité. Mais pas seulement.

Le confinement et le télétravail ont écrasé des décennies d'efforts centrés autour de l'expérience physique des employés. Événements, lieu de travail, etc. Sans ces atouts, les entreprises ont dû réinventer un vivre ensemble au rythme des attentes et des déceptions liées à la santé publique, et ce lent réveil s'est fait en plusieurs étapes.
Attention cependant à cette idée d'amour et d'appartenance imaginée par Maslow. Il convient de trouver une distance raisonnable, et une juste place de l'employeur dans la vie de l'employé. D'une manière ou d'une autre, le bureau s'est installé dans la cuisine ou le salon. Il est temps de faire un peu de ménage et de créer des frontières plus saines pour tout le monde.
Le bonheur au travail est un argument marketing plus qu’une véritable mission managériale. Trop souvent, les entreprises misent tout sur des arguments de façade (locaux attrayants, horaires flexibles, culture du party), alors que le bonheur... c’est plus que ça.
Offrir un bon salaire, de bonnes conditions de travail, un bon équilibre avec la vie de famille... soit... Mais le bonheur ? Vraiment ? Que pouvez-vous vraiment pour un employé malheureux ? La philosophe Julia de Funès et l’économiste Nicolas Bouzouki ont étudié le mythe du bonheur au travail dans un ouvrage sans concessions : La comédie (in)humaine, « Le bonheur ou la joie comme conséquence d’un travail réussi, oui ; le bonheur ou la joie comme condition de performance, non. »
Dans cette période post-traumatique, où il est encore difficile de planifier, il demeure une chose sur laquelle nous pouvons garder le contrôle : notre relation. À l’individu. À ce qui fait que nous ne sommes pas seuls. Et cette règle ne fait pas exception aux entreprises.
Voici quelques pistes de solutions amenées par une psychologue du travail, Océane Marchand :
Nous l'avons vu dans un précédent article, les nudges — coups de pouce — sont un moyen puissant de contrôle du comportement des humains. Ça paraît gros dit comme ça, mais c'est tout petit, au contraire. Un nudge est une incitation au passage à l'acte quasiment imperceptible, et qui repose sur une prémisse universelle : les humains sont paresseux.
L'idée de Thaler et Sunstein (les papas des nudges), c'est qu'il est préférable d'aider l'usager à prendre la bonne décision — éthiquement, c'est aussi la décision que ce dernier aurait prise sans nous, mais il a besoin d'un coup de pouce pour se lancer. Nous avons vu qu'il existait plusieurs types de nudges et qu'ils étaient souvent utilisés dans la santé, dans les services publics, mais aussi en économie (dans les services bancaires, les levées de fonds, etc.) Bref, aucun domaine n'échappe aux nudges. Pourquoi un tel succès? Parce que la plupart du temps, un nudge ne coûte (presque) rien. Tester un nudge est donc peu risqué et très tentant... Il était donc tout naturel que la politique s'empare de cet outil tactique puissant.
L'utilisation des nudges en politique est un terrain éthique miné, qu'il s'agit d'observer avec un regard critique. Un article du Guardian signé Andrew Sparrow➊ sur le conservateur David Cameron, architecte conservateur du Brexit — et de la crise économique traversée par la Grande-Bretagne depuis — a révélé l'importance des nudges dans les décisions politiques. En quelques définitions (parfois un peu cyniques), Sparrow récapitule le travail de Thaler et Sunstein en se lançant dans un exercice que je n'ai pas hésité à personnaliser.
Parce que les mécanismes des nudges peuvent vous aider à comprendre bien des choses en matière de psychologie comportementale. Associé à l'économie, cette discipline s'appelle l'économie comportementale. Elle est riche d'enseignement et évite les raccourcis souvent pris par les organisations, qui se terminent en voie sans issue. Normal : l'humain est complexe... mais passionnant. Cela va vous aider à mieux comprendre la complexité de vos employés, de vos clients, des citoyens de votre municipalité ou de votre province. Mieux comprendre la mécanique de ces coups de pouce, c'est vous préparer à être de meilleurs stratèges du changement.
Daniel Kahneman avait lui-même pavé la voie de la psychologie comportementale en remportant le prix Nobel d'économie en 2002, cinq ans avant Thaler. Ils ont d'ailleurs collaboré, et les recherches de Kahneman expliquent bien des choses➋ . Il a démontré que le cerveau humain fonctionnait à deux vitesses. Le système 1, rapide et intuitif. Le système 2, rationnel, délibéré. Biologiquement, le système 1 ne demande pas beaucoup d'énergie. Le système 2 est plus énergivore, donc plus fatigant. Le nudge est donc un stimulus qui va privilégier le système 1. Il va provoquer une action rapide, qui demande peu d'effort... et notre cerveau adore ça!
→ Misez sur l'instinct. En politique, mieux vaut être sympathique et rassurant que stratégique et brillant. Pourquoi? Parce que la plupart des électeurs ne se rendent pas jusque-là dans leurs réflexions. Cela explique beaucoup de scrutins de ces dernières années, partout dans le monde. Si vous voulez réussir, pensez sans cesse au Système 1. Il faut parler à l'instinct des gens.
Deuxième idée de Thaler et Sunstein, il existe toujours un architecte du choix, assumé ou pas. La personne qui va écrire le menu du jour sur l'ardoise au restaurant, celui ou celle qui va décider de l'emplacement des étals à l'épicerie, ou bien les gens qui ont choisi les photos sur les murs de votre coiffeur... Il y a toujours quelqu'un qui a décidé quelque chose à votre place... et c'est bien normal. L'idée est d'assumer ce rôle et d'en profiter pour influencer ce choix. L'économiste prend l'exemple d'une cafétéria, où l'on peut décider de mettre les salades avant les burgers pour influencer le choix des gourmands, qui savent que la salade est un meilleur choix. En politique, on pourrait parler de "manipuler les questions" si on voulait être cynique ou brutal. Mais si les politiciens sont aussi des architectes des choix, certains d'entre eux ne s'en rendent probablement pas compte. Thaler et Sunstein pensent même que s'ils comprenaient cela, ils feraient mieux leur travail.
Depuis la naissance des nudges, les cabinets-conseils en politique n'ont pas lésiné sur l'usage intensif des coups de pouce pour demander aux citoyennes et citoyens de faire... la bonne chose. Le premier ministre britannique David Cameron, le président Obama, le président Macron ont tous créé des cellules spécialisées dans les nudges, les nudges units➍➎➏. Il s'agit d'un groupe de spécialistes des biais psychologiques. Ces experts font des recommandations de nudges à leurs clients (ici des cabinets présidentiels ou ministériels), afin d'atteindre des objectifs définis. Avec un regard critique, on peut parler de manipulation de masse. Avec un regard pragmatique, il s'agit d'assumer que tout choix est l'oeuvre d'un architecte. Et lui convient aussi d'assumer ce rôle d'architecte.
Le Canada n'est pas en reste. Le gouvernement fédéral s'est doté d'une nudges unit pour gérer la crise du COVID❼. Au Québec, les journalistes se sont peu penchés sur la question, même si on a pu observer les nudges dans la promotion de bonnes habitudes environnementales❽. Bref, les nudges sont vraiment partout!
Par définition, le nudge — l'architecte du choix qui a choisi le nudge — est paternaliste. C'est un terme qu'assument Thaler et Sunstein. L'idée, c'est d'améliorer la vie des gens... même contre leur gré. L'expression originale est "Libertarian paternalism", ce qui ressemble à un oxymore géant. On pourrait la traduire par paternalisme bienveillant, libéral, libertarien (ultra-libéral), ou intrusif et condescendant selon qu'on soit pour ou contre. La cause n'est pas entendue et fait encore débat entre les philosophes et les économistes.
Les économistes (et certains décideurs politiques) ont tendance à travailler sur l'hypothèse que les gens agissent rationnellement et qu'ils font toujours ce qui est le mieux pour eux. Cette hypothèse est fausse. Thaler et Sunstein appellent les gens qui se comportent réellement de cette manière des Econs❼, des sortes de "robots comportementaux" agissant de la bonne manière et toujours de la même façon. Thaler et Sunstein ont démontré que "les vraies personnes" n'agissent pas toujours de manière rationnelle. Elles sont sans cesse influencées par des biais et des émotions qui les empêchent d'être conformes à une norme imaginée par les instituts de sondage, les chercheurs, les économistes et les politiciens. On appelle ces gens imparfaits et irrationnels... des humains.
Thaler et Sunstein ont démontré que l'humain (en tant qu'individu) n'aime pas le changement, et qu'il a tendance à accepter ce qui est proposé. Ce biais de statu quo s'applique aussi collectivement. On parle alors de conservatisme collectif.
Dernier fait intéressant, lorsque les gens sont interrogés sur ce qu'ils ont l'intention de faire dans une enquête, ils sont plus susceptibles de le faire. Si un partisan vient cogner à votre porte, ou si un sondeur vous appelle pour savoir si vous allez voter demain... La probabilité que vous alliez vraiment voter augmente de 25%. Les instituts de sondages ont de beaux jours devant eux!
Des petits malins planchent déjà sur la suite de la saga. En 2021, Cambridge University Press a publié un article➓ sur ces supers coups de pouce, les nudges plus qui incorporent un élément de réflexion dans le nudge, une sorte de nudge "System 1 + 2", donc. Ce sont des études qui valent la peine qu'on surveille leur évolution, même si cette réflexion semble un peu contre-intuitive au regard de la pensée originelle de Thaler et Sunstein.
Lorsqu’un changement est introduit dans une organisation, il provoque inévitablement des réactions. Ces dernières, souvent interprétées comme des résistances, sont en réalité des préoccupations légitimes. Céline Bareil a développé un modèle structurant pour comprendre ces dynamiques : les sept phases de préoccupations.
Madame Bareil est une figure influente dans le domaine de la gestion et du changement organisationnel. Professeure à HEC Montréal, elle se spécialise dans les dynamiques de transformation en milieu de travail, explorant comment les entreprises et leurs employés s'adaptent aux innovations et aux transitions majeures. Avec une approche axée sur les personnes, ses recherches touchent des thématiques telles que l'accompagnement au changement, les apprentissages organisationnels et le leadership dans des contextes complexes.
Ce modèle explique que les individus progressent dans un cheminement logique face au changement, allant de l’indifférence initiale à une pleine adhésion — pour peu que leurs préoccupations soient traitées adéquatement.
Cette théorie s’applique incroyablement bien au contexte d’un pitch, car ce dernier prépare toujours le terrain à un changement imminent. Lorsqu’on propose une nouvelle idée, un projet ou un produit, on confronte son audience à un futur différent, qui suscite des réactions similaires à celles observées lors d’un changement organisationnel. Un pitch efficace — comme une bonne gestion du changement — doit répondre à ces préoccupations avec clarté, empathie et vision. En adressant chaque phase, on ne vend pas seulement une idée, mais on construit une adhésion progressive et durable au changement qu’elle incarne.
Pour accompagner vos équipes dans le changement, il est essentiel de répondre aux préoccupations exprimées à chaque phase. Voici comment le faire efficacement.
Un gestionnaire avisé se concentre non seulement sur les mots, mais aussi sur les actions. Chaque phase est une opportunité de bâtir la confiance et d’assurer un passage réussi vers l’étape suivante.
Pour illustrer, prenons un exemple "brûlant"... le cas du retour au bureau après une période prolongée de télétravail :