C'est à Richard Buckminster Fuller que nous devons la théorie de la Knowledge Doubling Curve, une prédiction dictée en 1980 et qui se vérifie aujourd'hui.
Bucky était le mauvais garçon de la Silicon Valley. Plusieurs fois viré de Harvard, il est devenu une inspiration pour le mouvement cybernétique et un gourou pour la communauté technologique naissante des années 60. Véritable touche-à-tout, architecte, designer, inventeur fou et futurologue, il est le papa de la biosphère de Montréal, et celui d'une théorie : la connaissance collective est exponentielle.
Cette théorie a peu été relayée par les universitaires de l’époque, mais tout s’explique par la réputation académique de Bucky. Or, aujourd’hui, elle résonne comme une véritable prédiction. L’idée : la connaissance collective à vitesse exponentielle. Attention, pas l’intelligence collective, la connaissance collective !

Il fallait 100 ans pour que la connaissance collective double en 1900.
Il fallait 25 ans pour que la connaissance collective double au milieu du siècle dernier.
Il fallait 13 mois pour que la connaissance collective double en 2016.
IBM a même poursuivi ces projections et annonce que le savoir doublera toutes les... douze heures, en 2036.
Pensez au corpus de connaissances de la médecine De Humani Corporis Fabrica (sur la structure du corps humain), qui fut l’œuvre majeure d’André Vésale, et véritable référence pour tous les scientifiques du xvie siècle. Tout était là. Toute la connaissance de la médecine rassemblée dans une seule œuvre publiée en 1543. Ce fut un tournant dans l’histoire de la médecine et de l’étude de l’anatomie humaine. Cet ouvrage était si imposant qu’il est souvent confondu avec une encyclopédie en raison de sa vaste couverture du sujet et de sa contribution fondamentale à la compréhension du corps humain. Tout le savoir de l’humanité sur l’humain ! Bon, eh bien De Humani Corporis Fabrica comptait 659 pages illustrées. Imaginez, en moins de 700 pages, on savait tout sur tout, sur la médecine du xvie siècle. Imaginez maintenant le volume de connaissances que nous avons sur le corps humain aujourd’hui !
Ou pensez encore à l’effervescence des sciences après la Deuxième Guerre mondiale, en partie produite par la fuite des cerveaux d’Europe centrale vers les universités américaines après l’élection d’Hitler en 1933. Tous les grands campus américains ont hérité de ces exilés allemands, autrichiens, hongrois, polonais expulsés par le régime nazi — notamment grâce à la fondation Rockefeller. Cette dernière mit en place un fonds d’aide spéciale pour les chercheurs destitués (Aid Fund for Deposed Scholars) destiné à financer des universitaires et intellectuels européens contraints de fuir le nazisme. Entre 1933 et 1942, ce programme permit d’aider plusieurs centaines d’intellectuels à trouver refuge sur des campus américains. Sans faire d’angélisme — l’accueil des chercheurs juifs était tout de même timide : il suffit de s’intéresser au parcours d’Einstein pour s’en convaincre —, ces années furent fructueuses sur le plan scientifique.
Les disciplines se croisèrent, les savoirs s’entrechoquèrent, et de nouveaux modes de pensée ont émergé de ces mélanges. C’est la naissance de la hiérarchie des besoins et des motivations de Maslow, c’est le début du design thinking, des focus groups, de l’informatique de Von Neumann en 1945, et bientôt de l’intelligence artificielle en 1955, avec la fine équipe de Dartmouth.
Ces inventions, combinées, ont accéléré davantage la production de connaissances, liée depuis à la puissance des ordinateurs. Depuis l’invention de l’ordinateur, la recherche est liée à la puissance des microprocesseurs, avec une loi bien connue (et parfois contestée), la loi de Moore. Gordon Moore était un des cofondateurs d’Intel, et un des papas du microprocesseur. Sa loi n’est pas tant une loi physique qu’une observation empirique, mais elle a fait foi pendant des décennies. Voilà ce qu’elle dit : à coût constant, la vitesse des microprocesseurs double tous les 18 mois. Une prédiction de 1965 — que Buckminster Fuller avait anticipée plusieurs années auparavant — restée vraie jusqu’en 2015, la physique imposant des barrières naturelles à la progression de cette vitesse. Moore avait lui-même prévu la limite de sa propre loi. Une limite physique insurmontable, puisqu’en dessous d’une échelle nanométrique (sous 10 nm), il devient difficile de miniaturiser davantage les microprocesseurs sans faire face à des problèmes complexes : effets quantiques, dissipation thermique, limitations de la lithographie, etc. Dès lors, il a été plus facile de multiplier les processeurs que de miniaturiser les microprocesseurs.
C’était sans compter le génie des équipes de Jensen Huang, grand patron de NVIDIA. En 2019, il déclare la mort de la loi de Moore et qu’il faudra désormais compter sur d’autres types de technologie… Optimisation des architectures, parallélisation des cœurs de processeurs et spécialisation des microprocesseurs (notamment les GPU) ont révolutionné l’approche de l’informatique matérielle. L’accélération des ordinateurs est redevenue possible, accélérant encore et encore la production de connaissances.
Aujourd’hui, les chercheurs ne cherchent plus. Ils ont produit des IA capables de chercher à leur place, donc de plus en plus vite. Par exemple, cette IA nommée M3GNet, développée par l’Université de Californie, a « inventé » une base de données de plus de 31 millions de nouveaux matériaux inexistants, en prédisant également leurs propriétés. Grâce à M3GNet, l’humanité découvre de nouveaux matériaux à une vitesse totalement inédite, vertigineuse.

Alors ? Buckminster était-il fou de considérer que la connaissance allait grandir à une vitesse exponentielle ? Au-delà de notre ressenti, quelle preuve tangible peut-on produire pour montrer le bien-fondé de son intuition ? La réponse est arrivée chez Perrier Jablonski au détour d’un mandat, pour lequel nous avions à creuser le sujet. Nous sommes tombés sur une étude édifiante, celle de l’American Clinical and Climatological Association, publiée en 2011.
Cette étude voulait alerter l’administration Obama sur les défis de la formation des médecins, dans un monde où la connaissance grandit si vite. Et le rapport donne des chiffres. Évidemment, ces chiffres sont faciles à obtenir à une époque où tout se compte (brevets, recherches, mémoires, etc.). Les voici.
Il fallait 50 ans pour que la connaissance médicale double en 1950, 7 ans en 1980, 3 ans et demi en 2010... et... 73 jours en 2020. Un étudiant qui a commencé ses études de médecine en 2010 est devenu médecin en 2017. Dans ce même laps de temps, la connaissance médicale a doublé trois fois.
Si vous pensiez que le monde allait certainement ralentir un jour, j’ai une réponse pour vous. Enfin, pas moi, mais le président de Google, Sundar Pichai, qui annonçait en 2019 les premiers tests du premier processeur quantique, le Sycamore 54-qubit. Sycamore a réalisé un calcul complexe en 3 minutes et 20 secondes... alors qu’il faudrait 10 000 ans aux meilleurs super calculateurs du marché. Bien évidemment, il s’agit d’un test réalisé dans des conditions impossibles à reproduire dans le quotidien... Mais ce n’est qu’une question de temps.
Trois minutes contre 10 000 ans. Non, l’accélération n’est pas prête de ralentir...

C’est une étude de 2011 qui révèle le pot aux roses. Et le pot fait plus mal que les roses : 87 % des entreprises du premier Fortune 500 ont disparu en 60 ans. C’est à Steven Dening de Forbes, à Mark J. Perry de AEI ou encore à Steve Jobs himself que l’on doit l’autopsie des entreprises d’hier (et d’aujourd’hui).
D’abord, il convient de classer les entreprises en trois groupes :
Seules 67 entreprises composent le groupe B. Il existe plusieurs raisons qui expliquent la disparition de la majorité des entreprises. Soit elles ont fait faillite, soit elles ont fusionné avec une autre entreprise, soit elles existent encore, mais ne sont plus dans le TOP500 de Fortune.
Parmi celles qui sont véritablement mortes, Perry cite entre autres des marques tombées dans les limbes de l’histoire économique : Armstrong Rubber, Cone Mills, Hines Lumber, Pacific Vegetable Oil ou encore Riegel Textile. Mais, quelle que soit la raison de ce déclassement, ce dernier révèle une incapacité à survivre dans un monde changeant.
Le consommateur a de nouvelles habitudes, de nouvelles attentes, de nouveaux désirs… il change de comportement à une vitesse vertigineuse. Une entreprise qui naît de ces besoins saura mieux y répondre que les joueurs bien installés. Sans entraves, sans passif, sans mauvaises habitudes, de nouvelles entreprises viennent jouer le jeu de la destruction créatrice introduite par Joseph Schumpeter en 1942 : le nouveau détruit l’ancien. Attention cependant, cette culture de la tabula rasa (table rase) n’est pas réservée qu’aux nouvelles entreprises. Elle s’applique aussi dans les entreprises historiques, qui n’hésitent pas à se réinventer elles-mêmes.

Dans un article du Wall Street Journal, Peggy Nooman aborde la philosophie de Jobs et son regard sur la mutation des industries :
Il y a un moment saisissant dans la biographie de Steve Jobs par Walter Isaacson, dans lequel Jobs parle longuement de sa philosophie d’entreprise. Il est à la fin de sa vie et fait le point. Sa mission, dit-il, était claire : « construire une entreprise pérenne où les gens sont motivés à fabriquer d’excellents produits ». Puis il se tourne vers l’ascension et la chute de diverses entreprises. Il a une théorie sur le déclin dans les grandes entreprises : « L’entreprise fait du bon travail, innove et devient un monopole (ou presque) dans un certain domaine, et puis la qualité du produit devient moins importante. L’entreprise commence à valoriser les produits qui se vendent le mieux, car ce sont ceux qui peuvent influencer les revenus. » Ainsi, les vaches à lait sont mises de l’avant, les ingénieurs de produit et les designers se sentent dégradés : leurs efforts ne sont plus au cœur de la vie quotidienne de l’entreprise. Ils « décrochent ». IBM et Xerox, a dit Jobs, ont flanché précisément de cette manière. Ceux qui dirigeaient les entreprises étaient intelligents et éloquents, mais « ils ne savaient rien du produit ». À la fin, cela peut condamner une grande entreprise, car ce que les consommateurs veulent, ce sont de bons produits.
En bref, les entreprises qui ont trouvé leur vache à lait ne pensent plus qu’à la traire, et abandonnent peu à peu l’innovation. Perry évoque aussi cette perte de la flamme créatrice par l’arrivée massive des money men, ces comptables et financiers qui s’emparent de l’organisation avec un objectif simple : couper les coûts, et traire la vache toujours davantage. Ce sont eux, les stars de l’entreprise désormais, et ils sont célébrés et rémunérés à la hauteur de leur capacité à couper. Ce changement radical de culture écœure les inventeurs, les créateurs, les ingénieurs, tous ceux et celles qui ont créé la vraie richesse de l’entreprise à la base. Ils finissent par quitter le navire et vont innover ailleurs. Ce phénomène touche même les entreprises qui ont réussi à créer un monopole. Quand elles commencent à jouer défensif, elles commencent à creuser leur tombe, en imposant une culture du profit à tout prix, en assassinant le risque, le courage et les idées nouvelles.
À force d’être obsédées par leur bottom line (leurs résultats financiers), les entreprises font de mieux en mieux ce qu’elles savent faire, plutôt que de servir au mieux les attentes de leurs clients. À leur décharge, n’oublions pas aussi qu’elles traînent parfois un passif coûteux (équipements vétustes, technologies héritées du passé, habitudes managériales dépassées, marque poussiéreuse, etc.).
On l’a vu à de nombreuses reprises dans des faillites aussi tristes que fréquentes autour de nous : Zellers, Sears, Eaton… les grandes chaînes de distribution n’ont pas su imposer la révolution logistique qui aurait pu leur donner un avantage sur Amazon. Pourtant, elles avaient toutes les cartes en main.
Un autre rapport daté de 2016, cette fois publié par Innosight, révèle que cette obsolescence des entreprises s’accélère avec le temps. Le titre est en forme de mise en garde : Longévité des entreprises : Turbulences à venir pour les grandes organisations. Allez, on s’accroche !
L’étude a observé l’indice S&P 500, également connu sous le nom de Standard & Poor’s 500. C’est un indice boursier basé sur la capitalisation boursière de 500 des plus grandes entreprises cotées sur les bourses américaines, telles que la New York Stock Exchange (NYSE) et le NASDAQ. Cet indice est considéré comme l’un des indicateurs les plus représentatifs de la performance du marché boursier américain et, par extension, de l’économie américaine en raison de la diversité et de l’importance des entreprises qu’il inclut.
En 1965, les entreprises de l’indice S&P 500 demeuraient dans l’indice pendant en moyenne 33 ans. En 1990, la durée moyenne dans le S&P 500 s’était réduite à 20 ans. Elle est prévue aux alentours de 14 ans d’ici 2026. Au taux de rotation actuel, environ la moitié des entreprises actuelles du S&P 500 seront remplacées au cours des 10 prochaines années alors que « nous entrons dans une période de volatilité accrue pour les entreprises leaders dans un éventail d’industries, les dix prochaines années s’annonçant comme les plus potentiellement turbulentes de l’histoire moderne », selon Innosight.
Longévité en 1965 : 33 ans. Longévité en 1990 : 20 ans. Longévité en 2026 : 14 ans. Votre entreprise va mourir. Bientôt. Très bientôt. Ou pas ?
Ces prédictions ont bientôt 10 ans, celles de Forbes, 11.
Alors que des marques meurent, d’autres naissent. C’est le cycle de la vie — ou ce que j’appelle le darwinisme économique.
Depuis, voici un petit échantillon du carnet rose des naissances dans le merveilleux monde du Fortune 500 : NVIDIA (entrée en 2016), Instagram (2020), YouTube (2020), Zoom (2020), Domino’s Pizza (2020), DexCom (2020), Tesla (2022), Airbnb (2023).
Les entreprises qui durent, et qui maintiennent un niveau de satisfaction de leurs clients élevé (Apple, Netflix, IKEA, Starbucks…) ont un point commun : elles comprennent mieux que quiconque les nouvelles attentes de leurs clients. Elles savent prendre des risques, innover
et échouer… mais gagnent le respect du marché et de leurs employés. La curiosité, la candeur, l’invention, l’innovation. Voici les composantes d’une culture d’entreprise pérenne. Si cette dernière ne garantit pas toujours le succès, elle assure au moins la motivation des employés à créer de nouvelles idées, carburant vital des organisations depuis toujours.
SAAQclic devait coûter 638 millions de dollars. La facture dépasse aujourd'hui le milliard. Le système a été lancé en février 2023 alors que les tests n'étaient même pas terminés. Des concessionnaires ne pouvaient plus livrer de véhicules. Des citoyens ne pouvaient plus renouveler leur permis. La vérificatrice générale a été limpide : coûts trois fois plus élevés, tests non complétés, informations cachées au conseil d'administration. Et le nouveau système s'est révélé moins performant que l'ancien.
Un échec sur toute la ligne. Et pourtant, personne ne s'en étonne vraiment.
On reconnaît le scénario parce qu'on l'a déjà vu. En 2016, le gouvernement fédéral lançait Phénix, un système de paie censé remplacer d'un seul coup des dizaines de systèmes pour 309 millions de dollars. Neuf ans et quatre milliards plus tard, il reste 300 000 erreurs de paie non résolues. Le vérificateur général du Canada a qualifié le projet d'« échec incompréhensible ». Et le système s'est révélé moins efficace que celui de quarante ans qu'il venait remplacer.
Et si on sort de l'informatique, le pattern tient toujours. En santé, le Québec en est à sa quatrième restructuration majeure en vingt ans. Chaque fois, on refond les structures, on centralise, on fusionne. Chaque fois, les mêmes critiques reviennent. Santé Québec regroupe aujourd'hui 330 000 employés sous un seul employeur. Après un an, les syndicats parlent de « chaos ». Un responsable syndical résumait : « Ça fait des décennies qu'on répète les mêmes erreurs. Centraliser toujours plus et consulter toujours moins. »
Et ce n'est pas un phénomène québécois. Le privé international accumule les mêmes débris. Nike a investi 400 millions de dollars pour refondre sa chaîne d'approvisionnement d'un coup : 100 millions en ventes perdues, chute de 20 % de l'action en bourse, cinq ans supplémentaires pour remettre le système debout. Lidl, le géant allemand du rabais, a travaillé sept ans sur un système SAP à 580 millions de dollars pour remplacer ses 90 solutions internes par une seule — avant de tout abandonner et de revenir à l'ancien système. Hershey's a raté Halloween 1999 — 100 millions en commandes impossibles à traiter — parce que son nouveau système n'était pas prêt. Revlon n'arrivait plus à fabriquer ni à livrer ses produits après sa migration SAP. Haribo a vu ses tablettes vides et ses ventes chuter de 25 % pour les mêmes raisons. La U.S. Navy a dépensé un milliard de dollars en quatre tentatives de systèmes de paie, sans jamais réussir. Chaque fois, le même réflexe : on jette l'ancien, on conçoit du neuf, on déploie massivement. Chaque fois, le même résultat.
Bref, les virages à 90° vont droit dans le mur. Mais pourquoi donc?
En 1975, un pédiatre américain du nom de John Gall a publié General Systemantics: An Essay on How Systems Work, and Especially How They Fail. Refusé par trente éditeurs, auto-publié, puis réédité trois fois — la dernière sous le titre The Systems Bible. Au cœur du livre, une phrase devenue célèbre sous le nom de « loi de Gall » :
Un système complexe qui fonctionne s'est invariablement développé à partir d'un système simple qui fonctionnait. Un système complexe conçu à partir de zéro ne fonctionne jamais, et on ne peut pas le rafistoler pour qu'il fonctionne. Il faut recommencer avec un système simple qui marche.
Gall — qui était pédiatre, pas consultant en management — avait observé ce phénomène dans les hôpitaux, les administrations, les programmes gouvernementaux. Son exemple le plus savoureux : le hangar de préparation des fusées à Cap Canaveral est si grand qu'il génère son propre climat, incluant des nuages et de la pluie. La structure censée protéger les fusées les arrose.
Sa conclusion : les systèmes complexes ne peuvent pas être « fabriqués ». Ceux qui fonctionnent ont tous évolué à partir de quelque chose de simple qui tenait debout.
À la même époque où SAAQclic s'enfonçait, un autre projet d'État réussissait sous le radar. La SQDC a été mise sur pied en moins d'un an et fonctionnait dès le jour de la légalisation du cannabis en octobre 2018. Réseau de succursales opérationnel, site de vente en ligne fonctionnel, approvisionnement sécurisé. Jean-François Bergeron, responsable de la mise sur pied, a parlé d'un « tour de force ».
Comment ? En ne repartant pas de zéro.
La SQDC a été créée comme filiale de la SAQ. Même infrastructure logistique, même expertise en commerce de détail, mêmes réflexes opérationnels. On a greffé un nouveau mandat sur un système qui fonctionnait déjà. Simple d'abord : une vingtaine de succursales, une centaine de produits. Puis on a construit dessus.
Et la SAQ elle-même est un cas d'école. Quand Gaétan Frigon en prend la présidence en 1998, la société d'État souffre de ce qu'il appellera « la maladie du monopole ». Aucune croissance depuis dix ans. Des succursales fermées le dimanche dans des centres commerciaux où les trente autres commerces sont ouverts.
Frigon n'a pas commandé un grand plan stratégique à une firme de consultation. Il a fait le tour des succursales en Gaspésie, a compté les magasins ouverts le dimanche — trente sur trente et un, le seul fermé étant la SAQ — et il les a ouverts. Six cents emplois de plus. Le dimanche est devenu la deuxième journée de ventes en moins d'un an.
Puis il a enchaîné : circulaires, promotions, paiement par carte de crédit, trois bannières (Classique, Express, Sélection), transformation des vendeurs en « conseillers en vin ». Chaque geste simple, greffé sur ce qui fonctionnait déjà. En quatre ans, la SAQ est passée de hors palmarès à troisième entreprise la plus admirée des Québécois.
Son message aux troupes : « Si on veut que nos clients n'appellent pas à la privatisation, soyons les meilleurs. »
Le privé québécois connaît le même principe, même s'il ne cite pas Gall. Desjardins perdait 80 000 membres en cinq ans et traînait au huitième rang en satisfaction client parmi les institutions financières canadiennes. La réponse classique aurait été une refonte technologique massive. Desjardins a plutôt choisi vingt produits prioritaires — ouverture de compte, carte de crédit, renouvellement hypothécaire — et les a numérisés un par un. Cinq ans plus tard : les ventes en ligne sont passées de 25 % à 40 %, quatorze points devant la moyenne canadienne, et le NPS a bondi de onze points. Du huitième rang au deuxième. Nathalie Larue, première vice-présidente, résume l'approche : « Ne jamais isoler le chantier numérique. »
Couche-Tard a suivi la même logique pendant quarante ans. Un seul dépanneur à Laval en 1980. Puis des acquisitions ciblées, digérées une à une — d'abord au Québec, puis au Canada, puis aux États-Unis, puis en Scandinavie, puis en Asie. Chaque marché absorbé avant de passer au suivant. Aujourd'hui : 16 700 magasins dans 27 pays, l'action multipliée par mille. Alain Bouchard n'a jamais tenté de devenir un géant mondial d'un seul coup. Il a construit sur ce qui marchait, encore et encore.
Et Bombardier est peut-être l'exemple le plus spectaculaire. En 2020, l'entreprise frôlait l'écrasement : endettement massif, divisions vendues les unes après les autres, flux de trésorerie négatifs. Éric Martel a pris les commandes avec un plan de redressement sur cinq ans — pas une refonte totale, mais un recentrage progressif : aviation d'affaires d'abord, puis services après-vente, puis défense. Chaque étape construite sur la précédente. En 2025, Bombardier a dépassé tous les objectifs de son plan : 9,55 milliards de revenus, cinquième année consécutive de croissance, un carnet de commandes de 17,5 milliards. Le cas fait désormais l'objet d'études à Harvard et à Columbia. Martel résume : « Nous avons transformé l'entreprise. » Mais il l'a fait morceau par morceau.
La loi de Gall est contre-intuitive pour quiconque vend de la transformation. L'ambition dit : « On voit le problème, on a les ressources, on y va. » La loi de Gall répond : « Plus vous concevez grand d'emblée, plus vous avez de chances d'échouer. »
C'est un problème pour les grandes firmes de consultation, dont le modèle d'affaires repose sur la refonte totale. On diagnostique, on recommande un plan en 200 diapositives, on facture des millions, et on laisse le client avec un système complexe conçu à partir de zéro. Exactement ce que Gall dit de ne jamais faire.
Les organisations qui changent vraiment commencent plus petit que ce qui semble confortable. Une habitude. Une réunion. Une décision qui tient. Puis elles construisent dessus. Non pas parce qu'elles manquent d'ambition — mais parce qu'un système qui fonctionne gagne le droit de grandir. Un système qui ne fonctionne pas s'effondre sous son propre poids.
La question que Gall poserait à n'importe quel comité de direction : Quelle est la version la plus simple du changement que vous essayez de faire ?
Si la réponse prend plus de deux phrases, c'est qu'on n'a pas encore trouvé le système simple.
La fenêtre d'Overton est une théorie qui décrit la gamme des idées ou des politiques acceptables à un moment donné dans la société. Imaginée par Joseph P. Overton, cette "fenêtre" représente l’espace des idées perçues comme raisonnables, où les décisions politiques peuvent être prises sans provoquer un rejet massif. Cette fenêtre évolue au fil du temps, sous l’influence de discours, de pratiques sociales ou politiques, permettant d’élargir ou de rétrécir la portée des concepts acceptables.
Dans une organisation, cette théorie peut s’appliquer au changement de mentalités, d’habitudes ou de structures. La gestion du changement devient ainsi une question de déplacement progressif de cette "fenêtre" d’acceptabilité au sein de l’entreprise. Ce déplacement se fait par petites étapes, de manière à rendre des idées autrefois jugées irréalisables progressivement normales, puis incontournables.
Voici les étapes de la fenêtre d'Overton :
Voyons maintenant comment appliquer la fenêtre d'Overton dans le quotidien avec un sujet brûlant, le retour au bureau.
Ce type de stratégie fonctionne parce que l'humain réagit souvent par comparaison et en relativisant ce qui lui est présenté. Une idée jugée impensable, lorsqu’elle est présentée en premier, modifie notre seuil de tolérance face à des idées plus raisonnables. En psychologie, on parle parfois de l'effet d'ancrage : en fixant une idée extrême comme point de départ, on influence la perception des propositions plus modérées.
Ainsi, pour les organisations cherchant à appliquer la fenêtre d'Overton à la gestion du changement, la promotion d'idées plus extrêmes au départ peut s'avérer une tactique efficace pour amener progressivement des changements significatifs qui paraissaient difficiles à faire accepter initialement.
Attention, la fenêtre d'Overton est à utiliser avec beaucoup de précaution. Comme pour les nudges, vous ne pouvez pas échapper à un questionnement éthique dans ce type de stratégie. En effet, La fenêtre d'Overton est souvent utilisée en politique, notamment par les partis extrêmes, pour déplacer progressivement ce qui est jugé acceptable dans le discours public. En promouvant des idées initialement considérées comme impensables ou radicales, ces partis cherchent à élargir les limites de la fenêtre pour rendre leurs propositions plus modérées en comparaison. Par exemple, des partis d'extrême droite ou d'extrême gauche peuvent introduire des politiques ou des déclarations très provocatrices afin de pousser le débat vers des solutions perçues comme plus extrêmes. Une fois que ces idées radicales commencent à être discutées dans les médias et les espaces politiques, des propositions qui semblaient autrefois radicales – comme des réformes sévères sur l'immigration ou la redistribution économique – deviennent soudainement acceptables, voire légitimes. Cette tactique permet à ces partis de normaliser des idées qui étaient autrefois en dehors des limites du débat public, en déplaçant progressivement la fenêtre d’Overton vers leurs propres idéaux politiques. Alors... prudence.
Mobilité ou immobilisme? Deux mille ans plus tard, Galilée viendra départager ces deux écoles de pensée par l'observation du mouvement perpétuel de la Terre sur elle-même, et autour du Soleil. Le match se termine donc en 1610 avec la victoire du changement permanent, donc d'Héraclite.
Or, limiter Parménide et Héraclite au mouvement, c’est se priver d’une pensée beaucoup plus riche, bien plus intéressante, et plus profonde encore. Nous avons eu recours aux lumières de plusieurs philosophes pour éclairer notre chemin. D'abord l'illustre Jean-François Mattéi (1941-2014). Ensuite Barbara Cassin, philosophe spécialiste des philosophes grecs et enfin André Laks, professeur de philosophie ancienne à la Sorbonne.
Évidemment, il convient de mesurer les innombrables altérations de ces textes primitifs à travers l'histoire — des fragments qui nous sont parvenus partiels et transformés. Cependant, ils ont occupé les pensées de Platon, Aristote, Hegel, Heidegger, Nietzsche et bien d'autres... et préoccupent de nombreux philosophes contemporains. Ils ont le mérite de susciter chez le lecteur curieux des questionnements profonds et utiles.
Loin de moi la prétention d'ajouter une pierre à cet édifice. Je propose l'emprunt, la ruse. Je veux aller chercher à la source même, de nouveaux mécanismes, de nouvelles métaphores. Cet article s'adresse aux curieux. À celles qui n'ont pas peur des acrobaties. À ceux qui n'ont pas peur du feu. Bref, à celui ou à celle qui a déjà osé lire jusqu'ici.
D’abord, Parménide était le penseur du Tout, comme Pythagore avant lui. Il y avait l'être... et rien d’autre. Le non-être ne pouvant être amené à notre conscience est inexistant. Le fragment 6 trop simplement traduit par L'être est, le non-être n’est pas a donné beaucoup de travail aux philosophes, aux philologues et aux traducteurs, qui continuent encore aujourd'hui à se contredire sur le sens profond de cette pensée fondatrice.
Pour Parménide, il n'y a que deux voies possibles : est et n'est pas. Mais est — du grec esti — peut prendre plusieurs formes : il existe, il est possible, il y a. Aussi, la tautologie (une formule qui ne peut être que vraie) pose que si A est A, alors A est parfaitement A, et A n'est rien d'autre que A — c'est la naissance des axiomes mathématiques.
Le Tout se définit donc par tout ce qui ne change pas, par ce qui est permanent, immuable. C'est ce qui est vrai et qui restera vrai. C'est l'identité ontologique : ce qui se définit dans l'absolu. Dès lors, ce qui change n'est qu'opinion (doxa), éphémère et sans valeur. Dans le Tout se trouve l'idée d'une Unité de tout l’univers dans tous les temps. Le passé, le présent et l’avenir cohabitent... avec l'impossibilité du devenir.
Si la traduction pose quelques problèmes aux philosophes encore aujourd'hui, on peut aussi retenir que nommer le néant... c'est le détruire, puisque c’est lui donner une consistance. Le néant est donc impossible, impensable. Tout est, et c'est tout. Dès lors, Parménide propose un Tout « tout puissant », immuable, impossible à changer. Rien ne change jamais, donc.
Pour sa part, Héraclite propose l'idée que Tout est composé d'opposés. La route monte et descend en même temps, selon le sens qu’on prend. Le fleuve dans lequel on se baigne change chaque seconde, mais reste le même et unique fleuve qui porte pour cette raison le même et unique nom. Pour Héraclite le monde est tissé de contraires pour mieux affirmer son unité, et Héraclite fustige les hommes incapables de reconnaître ces jeux de contraires logiques, les privant alors du pouvoir de raisonnement.
Héraclite était le philosophe qui pleure, sans cesse effondré par l'attitude des hommes qui ne savaient que faire la guerre. Nietzsche en avait fait le philosophe du combat, en révélant que si Tout contient des contraires, il faut les départager. Une lutte s'enclenche alors entre ces deux possibles, pour que l'un des deux l'emporte. Pour Héraclite, tout est un combat potentiel pour décider d’une voie à prendre plutôt qu'une autre. Tout est alors composé d’un changement à venir, d’un état de transformation permanent. Tout change tout le temps, donc.
Tout devenir naît de la lutte des contraires. Les qualités définies qui nous semblent durables n’expriment que la suprématie momentanée de l’un des combattants, mais la lutte n'en continue pas moins, le combat se poursuit éternellement. C'est en fonction de ce combat que tout ce qui se produit advient et c’est précisément ce combat qui révèle la justice cohérente et sévère, liée à des lois éternelles. — Nietzsche.
C'est l'harmonie des paradoxes. Ce qui est différent de soi-même s’accorde avec soi-même. Et celui qui s'enferme dans son propre raisonnement est un rêveur isolé qui ne participe pas au raisonnement collectif. Ce penseur recroquevillé sur lui-même porte un nom en grec ancien : l'idiot. L'idiot n'est pas l'imbécile. L'idiot est celui qui ne croit que lui-même. Et la langue française a conservé une trace de ce sens, avec l'idiosyncrasie — une disposition à réagir de manière particulière aux agents extérieurs. Ici, particulière doit être pris dans le sens d'individuel.
Déjà à l'époque, jeu de dualités n'était pas nouveau. Sans rien ôter à ces deux fondateurs de la pensée, il convient tout de même de rendre à Pythagore ce qui lui revient. Sur le fronton de l'École qu'il créa à Crotone, on pouvait lire "Dieu a tiré la Terre du néant comme il a créé le Un du rien pour créer la multitude". Au-delà de l'incroyable poésie de cette sentence, on y perçoit toute la richesse philosophique qu'elle porte en elle. C'est le début du Tout, de l'unité, du rien et de tout ce qu'il y a entre eux.
Ces questionnements du rien et du tout, de l'unité et du multiple, du vrai et du possible, de l'harmonie et des opposés, ont forgé à la fois notre vision du monde, notre raisonnement, notre langage et nos mathématiques. Ils sont la source de tout. Par exemple, puisqu’il existe une frontière entre quelque chose et rien, que se passe-t-il précisément à cet endroit? Le calcul infinitésimal d’Archimède, Newton et Leibnitz répondra à cette question. Et puisqu’il existe plusieurs possibilités d’un présent à venir, comment s'organise ce choix? Ce sont ici les bases des mondes possibles de Leibnitz...
Pour finir, il est cocasse de souligner que l'unité (le Tout) est composée d'unités (les objets) qui se mesurent... avec des unités (poids, taille, etc.) Les unités des unités de l'unité. Un seul mot pour décrire l'infiniment grand et l'infiniment petit, le pourquoi, le quoi et le comment. Voilà une pensée parfaitement parmédienne, héraclitéenne... et pythagoricienne.
Nous sommes en 2004. LEGO est au bord de la faillite. L’entreprise s’entête depuis près d'une décennie à se renouveler avec des innovations les plus farfelues les unes que les autres. Systèmes électroniques, moteurs et robots, jeux de lumière, blocs pour bébé, vêtements pour enfants, figurines de superhéros et jeux vidéos... bref on s’éloigne des briquettes colorées emboîtables pour surfer sur toutes les dernières tendances pour enfants.
Malheureusement, ces innovations coûtent cher et rapportent peu à LEGO. Pour remédier à la faillite, Jørgen Vig Knudstorp, vice-président aux affaires corporatives, remplace le petit-fils du fondateur, Kjeld Kirk Kristiansen, à la tête de l’entreprise. Il devient ainsi la première personne en dehors de la lignée des Kirk Kristiansen à occuper ce poste. Il faut savoir qu’avant d’arriver chez LEGO, Jørgen avait été consultant chez McKinsey, une boîte de conseil que l’on reconnait généralement pour sa rigueur impitoyable. Sa nomination annonce donc un changement de cap clair : exit les fantaisies créatives et bonjour la discipline financière.

Dès son entrée en poste, Jørgen a un plan clair. Il ordonne d’abord la suspension de la fabrication de nouveaux moules à pièce LEGO : on passe de 13 000 à 6 500 modèles de briquette. Mais c’est lorsqu’il décide de remplacer quelques-uns de ses designers diplômés des meilleures écoles d’Europe par des quidams, sans formation, qu’il surprend tout le monde. Ces nouveaux employés n’ont peut-être pas le bout de papier en poche, mais ils ont un atout sur lequel leurs prédécesseurs ne pouvaient compter : l’obsession de la briquette colorée. Ce sont de vrais utilisateurs du produit, des accros de LEGO.
Ces décisions ne font pas l’unanimité, mais pour Jørgen, c’est évident, il fallait que LEGO revienne à son ADN : être un « jouet pour la création et l’imagination ».
Certains diront que l’attitude de Jørgen ressemble à celle d’un dictateur et c'est normal : il a misé sur son autorité pour imposer la restructuration de LEGO. L'avantage du changement par autorité? La rapidité et le contrôle. Mais attention! Dans des cultures comme la nôtre ou celle des pays scandinaves, l’autorité n’est pas accordée à qui la veut. Il faut savoir bien doser et avoir la légitimité d’agir avec autorité, sans quoi on pourrait assister au désengagement des employés. C’est un fin équilibre sur lequel il faut savoir danser.
Et cette danse, Jørgen en maitrisait bien les pas puisque LEGO est aujourd’hui la marque de jouet pour enfant dont la valeur est la plus importante. L’entreprise vaut maintenant plus de 7 milliards de dollars américains. C'est 10 fois plus que Barbie et 21 fois plus que Hasbro ! Mais rassurez-vous, si l’autorité n'est pas votre tasse de thé, il existe une autre manière d’effectuer un changement et c’est l’influence.
Nous sommes en 2018, Barbara Martin Coppola rejoint les rangs d’IKEA à titre de Chief Digital Officer pour entamer la transformation numérique du géant de l’ameublement. Rappelons-nous bien qu’à l’époque, la mise en marché d’IKEA misait essentiellement sur ses magasins labyrinthiques et son iconique catalogue, qui d’ailleurs, est l’une des publications les plus imprimées dans le monde après la Bible.
Enfin, non seulement Barbara est une femme dans un rôle à prédominance masculine, mais elle est aussi une Espagnole dans une entreprise aux valeurs suédoises assez...austères. Les anecdotes au sujet de la frugalité du PDG d’IKEA, Ingvar Kamprad, sont nombreuses. On peut penser à la fois où il s'est fait refuser l’accès à un Gala de reconnaissance parce qu’il s’y était rendu en transport en commun, ou encore à ses nombreux voyages d’affaires en classe économique, alors que l’homme a les moyens d’avoir un jet privé!

Bref, dans ce contexte, Barbara ne peut se permettre d’agir par autorité, comme l'a fait Jørgen. Elle rapporte même qu’elle se sent observée de près lors des premiers mois de son mandat. Elle les consacre donc à s’intégrer dans la culture de l’entreprise. Une fois le respect et la confiance des employés gagnés, elle entame un important exercice d’influence et de communication en partageant ce qu’elle appelle son « étoile Polaire » : son ambition pour la transformation numérique d’IKEA. Pour Barbara, chaque initiative numérique développée doit contribuer à la vision d’IKEA, c’est-à-dire « offrir un meilleur quotidien au plus de gens possible ».
Barbara se promène donc d’équipe en équipe, de bureau en bureau, ralliant les 160 000 employés d’IKEA, un à un, autour de sa métaphore stellaire. L’étoile Polaire agit également comme un filtre décisionnel à toutes les actions qui sont prises dans le cadre de la transformation numérique. Cela responsabilise et octroie beaucoup d’autonomie aux équipes.
Si l’attitude de Barbara semble s’opposer à celle de Jørgen, c’est parce qu’elle a choisi de rallier les gens autour de sa vision plutôt que de l’imposer. Généralement plus lent et difficile à mettre en place, le changement par influence s’avère souvent plus durable puisqu’il est incarné par les équipes. De plus, son impact au sein d’une organisation est habituellement plus imposant en raison de la forte mobilisation des employés.
Jørgen ou Barbara? LEGO ou IKEA? Malheureusement, rien n'est noir ou blanc. Jørgen a dû faire preuve d’influence à certains moments et Barbara d’autorité à d’autres. Il faut voir l'autorité et l'influence comme un continuum sur lequel trouver son X. Et ce X, il dépend de la nature du changement, de la personnalité du gestionnaire qui l’implante et des contraintes de chaque stratégie.
Pour vous aider à y voir plus clair, réfléchissez à votre style de leadership et à votre culture organisationnelle en vous posant les questions suivantes :
Vos réponses devraient vous indiquer si l’autorité ou l’influence est à privilégier dans votre cas.
Enfin, même si Jørgen et Barbara ont opté pour des stratégies différentes, les deux ont des ancrages stratégiques alignés sur la vision de leur organisation respective. Chez LEGO, on voulait ramener le jouet à sa fonction « d’outil de création et d’imagination », alors qu’on souhaitait créer une expérience numérique « offrant un meilleur quotidien au plus de gens possible » chez IKEA.
Aussi, les deux gestionnaires ont dû faire face à de la friction et des préoccupations de la part des employés. C’est normal, et c’est même bon signe! Ça veut dire que les choses avancent. Notre conseil? Préparez-vous, parce que comprendre et adresser les préoccupations des employés est un facteur de pérennité pour le changement. D’ailleurs, on a écrit tout un article à ce sujet si ça vous dit d'en savoir plus.