Mobilité ou immobilisme? Deux mille ans plus tard, Galilée viendra départager ces deux écoles de pensée par l'observation du mouvement perpétuel de la Terre sur elle-même, et autour du Soleil. Le match se termine donc en 1610 avec la victoire du changement permanent, donc d'Héraclite.
Or, limiter Parménide et Héraclite au mouvement, c’est se priver d’une pensée beaucoup plus riche, bien plus intéressante, et plus profonde encore. Nous avons eu recours aux lumières de plusieurs philosophes pour éclairer notre chemin. D'abord l'illustre Jean-François Mattéi (1941-2014). Ensuite Barbara Cassin, philosophe spécialiste des philosophes grecs et enfin André Laks, professeur de philosophie ancienne à la Sorbonne.
Évidemment, il convient de mesurer les innombrables altérations de ces textes primitifs à travers l'histoire — des fragments qui nous sont parvenus partiels et transformés. Cependant, ils ont occupé les pensées de Platon, Aristote, Hegel, Heidegger, Nietzsche et bien d'autres... et préoccupent de nombreux philosophes contemporains. Ils ont le mérite de susciter chez le lecteur curieux des questionnements profonds et utiles.
Loin de moi la prétention d'ajouter une pierre à cet édifice. Je propose l'emprunt, la ruse. Je veux aller chercher à la source même, de nouveaux mécanismes, de nouvelles métaphores. Cet article s'adresse aux curieux. À celles qui n'ont pas peur des acrobaties. À ceux qui n'ont pas peur du feu. Bref, à celui ou à celle qui a déjà osé lire jusqu'ici.
D’abord, Parménide était le penseur du Tout, comme Pythagore avant lui. Il y avait l'être... et rien d’autre. Le non-être ne pouvant être amené à notre conscience est inexistant. Le fragment 6 trop simplement traduit par L'être est, le non-être n’est pas a donné beaucoup de travail aux philosophes, aux philologues et aux traducteurs, qui continuent encore aujourd'hui à se contredire sur le sens profond de cette pensée fondatrice.
Pour Parménide, il n'y a que deux voies possibles : est et n'est pas. Mais est — du grec esti — peut prendre plusieurs formes : il existe, il est possible, il y a. Aussi, la tautologie (une formule qui ne peut être que vraie) pose que si A est A, alors A est parfaitement A, et A n'est rien d'autre que A — c'est la naissance des axiomes mathématiques.
Le Tout se définit donc par tout ce qui ne change pas, par ce qui est permanent, immuable. C'est ce qui est vrai et qui restera vrai. C'est l'identité ontologique : ce qui se définit dans l'absolu. Dès lors, ce qui change n'est qu'opinion (doxa), éphémère et sans valeur. Dans le Tout se trouve l'idée d'une Unité de tout l’univers dans tous les temps. Le passé, le présent et l’avenir cohabitent... avec l'impossibilité du devenir.
Si la traduction pose quelques problèmes aux philosophes encore aujourd'hui, on peut aussi retenir que nommer le néant... c'est le détruire, puisque c’est lui donner une consistance. Le néant est donc impossible, impensable. Tout est, et c'est tout. Dès lors, Parménide propose un Tout « tout puissant », immuable, impossible à changer. Rien ne change jamais, donc.
Pour sa part, Héraclite propose l'idée que Tout est composé d'opposés. La route monte et descend en même temps, selon le sens qu’on prend. Le fleuve dans lequel on se baigne change chaque seconde, mais reste le même et unique fleuve qui porte pour cette raison le même et unique nom. Pour Héraclite le monde est tissé de contraires pour mieux affirmer son unité, et Héraclite fustige les hommes incapables de reconnaître ces jeux de contraires logiques, les privant alors du pouvoir de raisonnement.
Héraclite était le philosophe qui pleure, sans cesse effondré par l'attitude des hommes qui ne savaient que faire la guerre. Nietzsche en avait fait le philosophe du combat, en révélant que si Tout contient des contraires, il faut les départager. Une lutte s'enclenche alors entre ces deux possibles, pour que l'un des deux l'emporte. Pour Héraclite, tout est un combat potentiel pour décider d’une voie à prendre plutôt qu'une autre. Tout est alors composé d’un changement à venir, d’un état de transformation permanent. Tout change tout le temps, donc.
Tout devenir naît de la lutte des contraires. Les qualités définies qui nous semblent durables n’expriment que la suprématie momentanée de l’un des combattants, mais la lutte n'en continue pas moins, le combat se poursuit éternellement. C'est en fonction de ce combat que tout ce qui se produit advient et c’est précisément ce combat qui révèle la justice cohérente et sévère, liée à des lois éternelles. — Nietzsche.
C'est l'harmonie des paradoxes. Ce qui est différent de soi-même s’accorde avec soi-même. Et celui qui s'enferme dans son propre raisonnement est un rêveur isolé qui ne participe pas au raisonnement collectif. Ce penseur recroquevillé sur lui-même porte un nom en grec ancien : l'idiot. L'idiot n'est pas l'imbécile. L'idiot est celui qui ne croit que lui-même. Et la langue française a conservé une trace de ce sens, avec l'idiosyncrasie — une disposition à réagir de manière particulière aux agents extérieurs. Ici, particulière doit être pris dans le sens d'individuel.
Déjà à l'époque, jeu de dualités n'était pas nouveau. Sans rien ôter à ces deux fondateurs de la pensée, il convient tout de même de rendre à Pythagore ce qui lui revient. Sur le fronton de l'École qu'il créa à Crotone, on pouvait lire "Dieu a tiré la Terre du néant comme il a créé le Un du rien pour créer la multitude". Au-delà de l'incroyable poésie de cette sentence, on y perçoit toute la richesse philosophique qu'elle porte en elle. C'est le début du Tout, de l'unité, du rien et de tout ce qu'il y a entre eux.
Ces questionnements du rien et du tout, de l'unité et du multiple, du vrai et du possible, de l'harmonie et des opposés, ont forgé à la fois notre vision du monde, notre raisonnement, notre langage et nos mathématiques. Ils sont la source de tout. Par exemple, puisqu’il existe une frontière entre quelque chose et rien, que se passe-t-il précisément à cet endroit? Le calcul infinitésimal d’Archimède, Newton et Leibnitz répondra à cette question. Et puisqu’il existe plusieurs possibilités d’un présent à venir, comment s'organise ce choix? Ce sont ici les bases des mondes possibles de Leibnitz...
Pour finir, il est cocasse de souligner que l'unité (le Tout) est composée d'unités (les objets) qui se mesurent... avec des unités (poids, taille, etc.) Les unités des unités de l'unité. Un seul mot pour décrire l'infiniment grand et l'infiniment petit, le pourquoi, le quoi et le comment. Voilà une pensée parfaitement parmédienne, héraclitéenne... et pythagoricienne.
Steven J. Spear et Gene Kim sont des experts reconnus dans les domaines de la gestion et de l'innovation organisationnelle. Steven J. Spear, professeur au MIT Sloan School of Management, est un spécialiste des systèmes complexes et du lean management. Il est notamment l'auteur de The High-Velocity Edge, un ouvrage qui explore comment certaines organisations réussissent à innover et à s'adapter plus rapidement que leurs concurrents. Gene Kim, quant à lui, est une figure centrale du mouvement DevOps. Il a co-écrit plusieurs livres influents dans ce domaine, dont The Phoenix Project et The Unicorn Project, qui mettent en lumière comment les pratiques technologiques modernes peuvent transformer les entreprises et accroître leur performance.
Leur nouvelle théorie repose sur trois concepts clés : la slowification, la simplification et l'amplification. Voyons comment on peut l'appliquer dans notre quotidien, dans un contexte imprévisible et complexe.
La "zone de danger", selon Spear et Kim, représente les situations où les organisations font face à une grande complexité, des facteurs interconnectés, et des décisions rapides avec des enjeux élevés. C'est un environnement où les problèmes sont difficiles à identifier car ils sont souvent cachés, et où l'absence d'itérations ou d'opportunités de correction conduit à des risques élevés d'échec catastrophique.
Par exemple, le scandale des émissions de Volkswagen en 2015 montre à quel point les entreprises peuvent tomber dans la zone de danger. La manipulation des tests d'émissions dans le but de répondre rapidement aux attentes réglementaires a impliqué de nombreuses parties prenantes dans un système très complexe. L'accélération sans itérations possibles a conduit à une crise qui a coûté à l'entreprise plusieurs milliards de dollars en amendes, en plus d'endommager gravement sa réputation mondiale. La zone de danger, ici, est caractérisée par des décisions rapides, mal pensées, sans possibilité de retour en arrière.

La simplification est la première clé pour sortir de la zone de danger. En rendant les processus plus compréhensibles et contrôlables, les leaders peuvent gérer la complexité de manière proactive. Simplifier signifie réduire le nombre de variables à surveiller et permettre aux équipes d'itérer sur leurs actions. Cela ne signifie pas éliminer la complexité, mais la rendre gérable.
Un exemple classique de simplification réussie se trouve dans l'industrie aéronautique. Airbus, lors du développement de l'A350, a fait face à des défis technologiques complexes avec un grand nombre de nouveaux matériaux et systèmes. En simplifiant les processus de fabrication, en segmentant le développement en phases itératives, et en adoptant des méthodologies agiles, Airbus a pu gérer les risques potentiels liés à la complexité. Résultat : une réduction des coûts et des délais, et un avion qui a su concurrencer efficacement Boeing. La simplification a permis de rendre visibles les problèmes et de les traiter avant qu'ils ne deviennent incontrôlables.
La slowification, un terme emprunté à Spear et Kim, propose une approche radicalement différente de la manière dont les entreprises affrontent la pression. Ralentir le rythme des décisions permet aux organisations de mieux comprendre leur environnement, d'explorer plusieurs options et de détecter plus facilement les problèmes sous-jacents.
Prenons l'exemple de Toyota, un pionnier du lean management. Toyota a intégré la slowification dans sa chaîne de production en instaurant le principe du "Jidoka", qui permet aux travailleurs d'arrêter la ligne de production en cas de problème. Ce ralentissement instantané permet d'identifier et de résoudre les problèmes au moment où ils se produisent, évitant ainsi des erreurs massives coûteuses en aval. En intégrant des mécanismes de slowification, Toyota a pu rester leader dans un secteur ultra compétitif et complexe tout en minimisant les risques.
Dans un autre domaine, Netflix a également utilisé la slowification pour sa stratégie de lancement de contenu. Plutôt que de suivre les modèles traditionnels de diffusion, l'entreprise a opté pour des tests itératifs à petite échelle, observant attentivement les comportements des utilisateurs avant de généraliser ses innovations. Cette stratégie a permis à Netflix d'éviter les investissements massifs dans des projets voués à l'échec, tout en ajustant en temps réel sa programmation et ses développements technologiques.
Enfin, l'amplification permet de maximiser les efforts et de faire grandir l'impact des décisions prises. Amplifier, dans ce contexte, signifie répéter ce qui fonctionne, augmenter la portée des initiatives positives, et s'assurer que les processus simplifiés et les retours issus de la slowification sont pleinement exploités.
Amazon est un bon exemple d'une entreprise ayant utilisé l'amplification pour son modèle logistique. En 2005, Amazon lance le programme Prime, une initiative qui repose sur la simplification du modèle de livraison avec une approche "slowifiée", permettant à l'entreprise de mieux contrôler ses flux logistiques. Après avoir testé le concept dans certaines régions et observé les résultats, Amazon a amplifié cette initiative à l'échelle mondiale. Ce modèle de livraison rapide a ensuite été étendu à de nouveaux services tels que la livraison de produits alimentaires avec Amazon Fresh.
Un autre exemple d'amplification réussie se trouve dans la stratégie de la société Tesla. En commençant par produire des véhicules électriques haut de gamme en faible volume avec la Model S, Tesla a lentement perfectionné sa technologie et ses processus de production. Une fois maîtrisés, Tesla a amplifié son impact en élargissant son offre à des modèles plus abordables comme la Model 3, augmentant ainsi son empreinte sur le marché mondial des véhicules électriques. Chaque étape de simplification et de slowification a permis une amplification massive des résultats sur les marchés internationaux.
Le passage de la zone de danger à la zone de succès n'est pas un processus instantané. Il nécessite de revoir la manière dont une organisation fait face aux pressions externes et aux complexités croissantes. En suivant une approche basée sur la simplification, la slowification et l'amplification, les organisations peuvent réduire les risques, améliorer leurs performances et minimiser les coûts d'échec.
Dans leur livre, Spear et Kim soulignent que ces principes ne s'appliquent pas uniquement aux grandes entreprises mais à toute organisation qui fait face à des défis complexes. En prenant des mesures pour ralentir le processus décisionnel, les leaders peuvent aider leurs équipes à mieux comprendre les problèmes, à itérer sur les solutions, et à amplifier les pratiques qui fonctionnent, menant ainsi à des environnements plus stables et prévisibles.
C'est à Richard Buckminster Fuller que nous devons la théorie de la Knowledge Doubling Curve, une prédiction dictée en 1980 et qui se vérifie aujourd'hui.
Bucky était le mauvais garçon de la Silicon Valley. Plusieurs fois viré de Harvard, il est devenu une inspiration pour le mouvement cybernétique et un gourou pour la communauté technologique naissante des années 60. Véritable touche-à-tout, architecte, designer, inventeur fou et futurologue, il est le papa de la biosphère de Montréal, et celui d'une théorie : la connaissance collective est exponentielle.
Cette théorie a peu été relayée par les universitaires de l’époque, mais tout s’explique par la réputation académique de Bucky. Or, aujourd’hui, elle résonne comme une véritable prédiction. L’idée : la connaissance collective à vitesse exponentielle. Attention, pas l’intelligence collective, la connaissance collective !

Il fallait 100 ans pour que la connaissance collective double en 1900.
Il fallait 25 ans pour que la connaissance collective double au milieu du siècle dernier.
Il fallait 13 mois pour que la connaissance collective double en 2016.
IBM a même poursuivi ces projections et annonce que le savoir doublera toutes les... douze heures, en 2036.
Pensez au corpus de connaissances de la médecine De Humani Corporis Fabrica (sur la structure du corps humain), qui fut l’œuvre majeure d’André Vésale, et véritable référence pour tous les scientifiques du xvie siècle. Tout était là. Toute la connaissance de la médecine rassemblée dans une seule œuvre publiée en 1543. Ce fut un tournant dans l’histoire de la médecine et de l’étude de l’anatomie humaine. Cet ouvrage était si imposant qu’il est souvent confondu avec une encyclopédie en raison de sa vaste couverture du sujet et de sa contribution fondamentale à la compréhension du corps humain. Tout le savoir de l’humanité sur l’humain ! Bon, eh bien De Humani Corporis Fabrica comptait 659 pages illustrées. Imaginez, en moins de 700 pages, on savait tout sur tout, sur la médecine du xvie siècle. Imaginez maintenant le volume de connaissances que nous avons sur le corps humain aujourd’hui !
Ou pensez encore à l’effervescence des sciences après la Deuxième Guerre mondiale, en partie produite par la fuite des cerveaux d’Europe centrale vers les universités américaines après l’élection d’Hitler en 1933. Tous les grands campus américains ont hérité de ces exilés allemands, autrichiens, hongrois, polonais expulsés par le régime nazi — notamment grâce à la fondation Rockefeller. Cette dernière mit en place un fonds d’aide spéciale pour les chercheurs destitués (Aid Fund for Deposed Scholars) destiné à financer des universitaires et intellectuels européens contraints de fuir le nazisme. Entre 1933 et 1942, ce programme permit d’aider plusieurs centaines d’intellectuels à trouver refuge sur des campus américains. Sans faire d’angélisme — l’accueil des chercheurs juifs était tout de même timide : il suffit de s’intéresser au parcours d’Einstein pour s’en convaincre —, ces années furent fructueuses sur le plan scientifique.
Les disciplines se croisèrent, les savoirs s’entrechoquèrent, et de nouveaux modes de pensée ont émergé de ces mélanges. C’est la naissance de la hiérarchie des besoins et des motivations de Maslow, c’est le début du design thinking, des focus groups, de l’informatique de Von Neumann en 1945, et bientôt de l’intelligence artificielle en 1955, avec la fine équipe de Dartmouth.
Ces inventions, combinées, ont accéléré davantage la production de connaissances, liée depuis à la puissance des ordinateurs. Depuis l’invention de l’ordinateur, la recherche est liée à la puissance des microprocesseurs, avec une loi bien connue (et parfois contestée), la loi de Moore. Gordon Moore était un des cofondateurs d’Intel, et un des papas du microprocesseur. Sa loi n’est pas tant une loi physique qu’une observation empirique, mais elle a fait foi pendant des décennies. Voilà ce qu’elle dit : à coût constant, la vitesse des microprocesseurs double tous les 18 mois. Une prédiction de 1965 — que Buckminster Fuller avait anticipée plusieurs années auparavant — restée vraie jusqu’en 2015, la physique imposant des barrières naturelles à la progression de cette vitesse. Moore avait lui-même prévu la limite de sa propre loi. Une limite physique insurmontable, puisqu’en dessous d’une échelle nanométrique (sous 10 nm), il devient difficile de miniaturiser davantage les microprocesseurs sans faire face à des problèmes complexes : effets quantiques, dissipation thermique, limitations de la lithographie, etc. Dès lors, il a été plus facile de multiplier les processeurs que de miniaturiser les microprocesseurs.
C’était sans compter le génie des équipes de Jensen Huang, grand patron de NVIDIA. En 2019, il déclare la mort de la loi de Moore et qu’il faudra désormais compter sur d’autres types de technologie… Optimisation des architectures, parallélisation des cœurs de processeurs et spécialisation des microprocesseurs (notamment les GPU) ont révolutionné l’approche de l’informatique matérielle. L’accélération des ordinateurs est redevenue possible, accélérant encore et encore la production de connaissances.
Aujourd’hui, les chercheurs ne cherchent plus. Ils ont produit des IA capables de chercher à leur place, donc de plus en plus vite. Par exemple, cette IA nommée M3GNet, développée par l’Université de Californie, a « inventé » une base de données de plus de 31 millions de nouveaux matériaux inexistants, en prédisant également leurs propriétés. Grâce à M3GNet, l’humanité découvre de nouveaux matériaux à une vitesse totalement inédite, vertigineuse.

Alors ? Buckminster était-il fou de considérer que la connaissance allait grandir à une vitesse exponentielle ? Au-delà de notre ressenti, quelle preuve tangible peut-on produire pour montrer le bien-fondé de son intuition ? La réponse est arrivée chez Perrier Jablonski au détour d’un mandat, pour lequel nous avions à creuser le sujet. Nous sommes tombés sur une étude édifiante, celle de l’American Clinical and Climatological Association, publiée en 2011.
Cette étude voulait alerter l’administration Obama sur les défis de la formation des médecins, dans un monde où la connaissance grandit si vite. Et le rapport donne des chiffres. Évidemment, ces chiffres sont faciles à obtenir à une époque où tout se compte (brevets, recherches, mémoires, etc.). Les voici.
Il fallait 50 ans pour que la connaissance médicale double en 1950, 7 ans en 1980, 3 ans et demi en 2010... et... 73 jours en 2020. Un étudiant qui a commencé ses études de médecine en 2010 est devenu médecin en 2017. Dans ce même laps de temps, la connaissance médicale a doublé trois fois.
Si vous pensiez que le monde allait certainement ralentir un jour, j’ai une réponse pour vous. Enfin, pas moi, mais le président de Google, Sundar Pichai, qui annonçait en 2019 les premiers tests du premier processeur quantique, le Sycamore 54-qubit. Sycamore a réalisé un calcul complexe en 3 minutes et 20 secondes... alors qu’il faudrait 10 000 ans aux meilleurs super calculateurs du marché. Bien évidemment, il s’agit d’un test réalisé dans des conditions impossibles à reproduire dans le quotidien... Mais ce n’est qu’une question de temps.
Trois minutes contre 10 000 ans. Non, l’accélération n’est pas prête de ralentir...

Robert Gifford est un psychologue canadien renommé, professeur de psychologie et d'études environnementales à l'Université de Victoria, en Colombie-Britannique. Ses recherches se concentrent sur la psychologie environnementale, sociale et de la personnalité. Il a notamment exploré le comportement non verbal et les obstacles comportementaux au changement climatique. Lors de ses recherches, Gifford a identifié 30 facteurs qui poussent les gens à ne pas agir. Pour les simplifier, il les a regroupé en catégories homogènes et les appellé les 7 dragons de l’inaction. Les voici :
Pour y voir plus clair, prenons un exemple concret, soit changer sa voiture à essence pour un modèle électrique. Malgré les nombreux avantages de rouler vert comme la réduction des émissions de CO2, les économies de carburant, l’entretien réduit et les subventions gouvernementales, le taux de pénétration des voitures électriques demeure de 5,3% au Canada. Pourquoi? C’est ce que nous découvrirons à travers les 7 dragons de l’inaction.
L’humain a une capacité cognitive limitée. Ce n’est pas de sa faute: son cerveau a très peu évolué au cours des derniers siècles. Sans compter que de son côté, l’information disponible, elle, évolue constamment et se multiplie à vitesse grand V. Alors, le dragon de la cognition limitée s’explique par une incapacité à traiter l’information, car elle est trop complexe ou trop abondante.
Par exemple, lorsque vient le temps de calculer l’économie de carburant d’une voiture électrique, plusieurs font face à un problème de cognition limitée. Il faut l’essayer pour le voir.
Prenons l’exemple du Volvo EX40 Recharge. Ce VUS offre une autonomie de 472 km. Sa recharge complète prend 82 kW et un kW vaut 0,07$ au Québec. Son prix ? 61 500$. Son homologue à essence a une autonomie de 600 km. Sa consommation est de 9 litres au 100 km et le prix de l’essence était en moyenne 1,45$/litre au cours des 5 dernières années. Son prix ? 45 200$.
Alors maintenant, après combien de kilomètres l’option électrique devient-elle plus économique que l’option à essence? Le calcul n’est même pas commencé que l’on s’épuise à collecter l’information. Et puis honnêtement, avec autant de chiffres et de variables, on préfère ne pas se risquer… preuve que devant trop d’information complexe, il devient difficile de faire des choix.
Qu’elles soient liées à la religion, aux allégeances politiques ou aux valeurs familiales, Gifford avance que nos croyances nous empêchent souvent de changer. L’idéologie motive l’inaction, car un individu profondément attaché à ses convictions peut rejeter tout changement qui ne correspond pas exactement à ses valeurs ou qui ne soutient pas ses principes.
Prenons l’exemple d’une personne dont la famille choisie exclusivement des véhicules de la marque Dodge : elle-même conduit un vieux Caliber sur le point de rendre l’âme, sa mère se promène en Charger, son père a cumulé tous les modèles de Ram possible, et sa sœur vient tout juste d'acquérir un Durango pour l’arrivée d’un bébé. Lorsque vient le temps de remplacer son vieux Dodge, nul ne vaut la peine d’essayer de lui vendre un modèle électrique. Au mieux, elle optera pour un modèle hybride puisque Dodge n’offre aucune option de voiture 100% électrique au moment d’écrire ces lignes. Ainsi, ses idéologies familiales limitent ses choix vers une mobilité plus écologique.
Si l’inaction idéologique est motivée par un ensemble de croyances et de valeurs fermement tenues, visant à promouvoir ou à instaurer ses idéaux, l’incrédulité c’est tout le contraire. Elle est motivée par le scepticisme, le déni et le doute envers certaines croyances, affirmations ou experts. Une personne agissant par incrédulité questionne activement la validité et la fiabilité des informations reçues.
Devant le choix d’opter pour une voiture électrique, une personne incrédule remettra en doute l’autonomie de la batterie, la performance du moteur et l’accessibilité des bornes de recharge pour justifier son inaction. Elle pourrait aussi remettre en doute l’impact environnemental d’une voiture électrique ou encore la réelle économie sur l’essence. Bref, elle accordera une importance démesurée à des doutes non fondés plutôt que des faits vérifiés.
L’humain est avant tout une bête sociale. Lorsque vient le temps d’agir, la majorité des gens préféreront regarder ce que les autres autour d’eux font avant de prendre une décision. La comparaison aux autres c’est le fait de se conformer à une norme sociale. En une phrase : « Pourquoi moi, mais pas les autres? »
Pour comprendre ce phénomène, on a qu’à regarder les ventes de voiture électrique à travers l’Europe. En moyenne, 14,8 % des modèles vendus à travers le vieux continent sont électriques. Ce taux varie grandement d’un pays à l’autre. Par exemple, en Norvège, 83,4% des véhicules vendus sont électriques. En Islande ? 42,1%. En Suède? 38,7%. En Finlande? 33,3%. Et au Danemark? 32,9%. À l’autre bout du spectre, on retrouve des pays du sud comme l’Espagne (4,9%), la Grèce (3,9%) et l’Italie (3,5%). Si dans le cas des pays scandinaves la norme sociale est de posséder une voiture électrique, c’est tout le contraire dans le cas des pays du sud. Avec un taux de pénétration de 5,3% au Canada, on peut dire que la norme sociale n’est pas encore à l’électrique ici!
La plupart des gens préféreront persister dans un projet qui est voué à l’échec uniquement parce qu’ils considèrent avoir trop investi pour abandonner. Si quelqu'un a déjà investi considérablement dans une technologie ou un produit qui est moins écologique, la personne peut se sentir obligée de continuer à utiliser ce produit pour "rentabiliser" son investissement initial, même si de meilleures options écologiques existent.
Les coûts irrécupérables d’une voiture sont nombreux : la valeur à l’achat, les intérêts sur le prêt auto, les frais de réparation, les primes d’assurances… Bref les dépenses s’accumulent au même rythme que les raisons de conserver sa vieille voiture. Ainsi, les coûts irrécupérables peuvent motiver l’inertie, et ce même lorsque des alternatives plus écologiques et durables sont disponibles!
Tout changement aura des effets, qu’ils soient positifs, négatifs ou neutres. Cependant, les études démontrent que l’humain a tendance à donner plus d’importance aux effets négatifs, accentuant le risque perçu lié au changement. On parle ici de risque technologique, environnemental, légal, social… bref toutes les menaces qui influencent nos choix! Et à ces menaces, faire le choix d’acheter une voiture électrique n’y échappent pas.
Devant la carte du Circuit électrique, une personne agissant par risque perçu aura tendance à accentuer l’importance du fait qu’il n’y ait pas de bornes dans certaines régions du Québec. Par exemple, elle pourrait être préoccupée par le fait qu’il n’y a que 10 bornes à Chibougamau alors qu’elle ne prévoit même pas s’y rendre… Elle compte plutôt se déplacer en ville, à Montréal, où il y a 6 347 bornes et se déplacer à Québec à l’occasion. Autres risques qu’elle pourrait amplifier : le fait de tomber en panne par manque de batterie ou d’être en retard en raison du temps de rechargement. Pourtant, avec une bonne planification, ces deux événements sont fort improbables. Bref, les risques perçus sont une raison de plus de justifier l’inaction envers la mobilité durable.
Cet ultime dragon se manifeste souvent face à de grands défis environnementaux ou sociaux comme les changements climatiques ou la pauvreté mondiale. Dans ces contextes, changer de comportement semble assez insignifiant, car on perçoit souvent un manque de contrôle individuel sur ces enjeux collectifs. Ce dragon fait en sorte qu’on a tendance à privilégier les choix faciles à impact modéré au détriment des choix engageants à impact élevé.
Devant les changements climatiques, il est clair que la voiture électrique fait partie des solutions. Mais il s’agit d'une solution parmi des millions. Et d’une voiture parmi des milliards. Conclusion ? Cela donne l’impression que notre action individuelle n’est qu’une goutte d’eau dans un immense océan. Cette perception amène soit l’inaction ou la préférence pour des choix plus faciles. La preuve? Le recyclage est le comportement écoresponsable le plus largement adopté par les Québécois. On peut dire que c’est devenu une norme sociale : 82% de la population l’a intégré à ses habitudes selon l’Observatoire de la consommation responsable de l’UQAM.
On ne peut ignorer certains problèmes éternellement. Cory Doctorow, un écrivain de science-fiction, appelle le moment où un problème est devenu trop gros pour être ignoré le « peak indifference ». Ceux qui ont longtemps refusé d’agir se retrouvent donc confrontés à une situation où l’inaction aura de graves conséquences. Comment éviter d’atteindre ce moment fatidique ? Il faut agir en amont en combinant plusieurs stratégies. Les voici :
En intégrant ces approches éducatives, structurelles, sociales et politiques, il est possible de surmonter les obstacles psychologiques, physiques et sociaux de l’inaction.
Lorsqu’un changement est introduit dans une organisation, il provoque inévitablement des réactions. Ces dernières, souvent interprétées comme des résistances, sont en réalité des préoccupations légitimes. Céline Bareil a développé un modèle structurant pour comprendre ces dynamiques : les sept phases de préoccupations.
Madame Bareil est une figure influente dans le domaine de la gestion et du changement organisationnel. Professeure à HEC Montréal, elle se spécialise dans les dynamiques de transformation en milieu de travail, explorant comment les entreprises et leurs employés s'adaptent aux innovations et aux transitions majeures. Avec une approche axée sur les personnes, ses recherches touchent des thématiques telles que l'accompagnement au changement, les apprentissages organisationnels et le leadership dans des contextes complexes.
Ce modèle explique que les individus progressent dans un cheminement logique face au changement, allant de l’indifférence initiale à une pleine adhésion — pour peu que leurs préoccupations soient traitées adéquatement.
Cette théorie s’applique incroyablement bien au contexte d’un pitch, car ce dernier prépare toujours le terrain à un changement imminent. Lorsqu’on propose une nouvelle idée, un projet ou un produit, on confronte son audience à un futur différent, qui suscite des réactions similaires à celles observées lors d’un changement organisationnel. Un pitch efficace — comme une bonne gestion du changement — doit répondre à ces préoccupations avec clarté, empathie et vision. En adressant chaque phase, on ne vend pas seulement une idée, mais on construit une adhésion progressive et durable au changement qu’elle incarne.
Pour accompagner vos équipes dans le changement, il est essentiel de répondre aux préoccupations exprimées à chaque phase. Voici comment le faire efficacement.
Un gestionnaire avisé se concentre non seulement sur les mots, mais aussi sur les actions. Chaque phase est une opportunité de bâtir la confiance et d’assurer un passage réussi vers l’étape suivante.
Pour illustrer, prenons un exemple "brûlant"... le cas du retour au bureau après une période prolongée de télétravail :
SAAQclic devait coûter 638 millions de dollars. La facture dépasse aujourd'hui le milliard. Le système a été lancé en février 2023 alors que les tests n'étaient même pas terminés. Des concessionnaires ne pouvaient plus livrer de véhicules. Des citoyens ne pouvaient plus renouveler leur permis. La vérificatrice générale a été limpide : coûts trois fois plus élevés, tests non complétés, informations cachées au conseil d'administration. Et le nouveau système s'est révélé moins performant que l'ancien.
Un échec sur toute la ligne. Et pourtant, personne ne s'en étonne vraiment.
On reconnaît le scénario parce qu'on l'a déjà vu. En 2016, le gouvernement fédéral lançait Phénix, un système de paie censé remplacer d'un seul coup des dizaines de systèmes pour 309 millions de dollars. Neuf ans et quatre milliards plus tard, il reste 300 000 erreurs de paie non résolues. Le vérificateur général du Canada a qualifié le projet d'« échec incompréhensible ». Et le système s'est révélé moins efficace que celui de quarante ans qu'il venait remplacer.
Et si on sort de l'informatique, le pattern tient toujours. En santé, le Québec en est à sa quatrième restructuration majeure en vingt ans. Chaque fois, on refond les structures, on centralise, on fusionne. Chaque fois, les mêmes critiques reviennent. Santé Québec regroupe aujourd'hui 330 000 employés sous un seul employeur. Après un an, les syndicats parlent de « chaos ». Un responsable syndical résumait : « Ça fait des décennies qu'on répète les mêmes erreurs. Centraliser toujours plus et consulter toujours moins. »
Et ce n'est pas un phénomène québécois. Le privé international accumule les mêmes débris. Nike a investi 400 millions de dollars pour refondre sa chaîne d'approvisionnement d'un coup : 100 millions en ventes perdues, chute de 20 % de l'action en bourse, cinq ans supplémentaires pour remettre le système debout. Lidl, le géant allemand du rabais, a travaillé sept ans sur un système SAP à 580 millions de dollars pour remplacer ses 90 solutions internes par une seule — avant de tout abandonner et de revenir à l'ancien système. Hershey's a raté Halloween 1999 — 100 millions en commandes impossibles à traiter — parce que son nouveau système n'était pas prêt. Revlon n'arrivait plus à fabriquer ni à livrer ses produits après sa migration SAP. Haribo a vu ses tablettes vides et ses ventes chuter de 25 % pour les mêmes raisons. La U.S. Navy a dépensé un milliard de dollars en quatre tentatives de systèmes de paie, sans jamais réussir. Chaque fois, le même réflexe : on jette l'ancien, on conçoit du neuf, on déploie massivement. Chaque fois, le même résultat.
Bref, les virages à 90° vont droit dans le mur. Mais pourquoi donc?
En 1975, un pédiatre américain du nom de John Gall a publié General Systemantics: An Essay on How Systems Work, and Especially How They Fail. Refusé par trente éditeurs, auto-publié, puis réédité trois fois — la dernière sous le titre The Systems Bible. Au cœur du livre, une phrase devenue célèbre sous le nom de « loi de Gall » :
Un système complexe qui fonctionne s'est invariablement développé à partir d'un système simple qui fonctionnait. Un système complexe conçu à partir de zéro ne fonctionne jamais, et on ne peut pas le rafistoler pour qu'il fonctionne. Il faut recommencer avec un système simple qui marche.
Gall — qui était pédiatre, pas consultant en management — avait observé ce phénomène dans les hôpitaux, les administrations, les programmes gouvernementaux. Son exemple le plus savoureux : le hangar de préparation des fusées à Cap Canaveral est si grand qu'il génère son propre climat, incluant des nuages et de la pluie. La structure censée protéger les fusées les arrose.
Sa conclusion : les systèmes complexes ne peuvent pas être « fabriqués ». Ceux qui fonctionnent ont tous évolué à partir de quelque chose de simple qui tenait debout.
À la même époque où SAAQclic s'enfonçait, un autre projet d'État réussissait sous le radar. La SQDC a été mise sur pied en moins d'un an et fonctionnait dès le jour de la légalisation du cannabis en octobre 2018. Réseau de succursales opérationnel, site de vente en ligne fonctionnel, approvisionnement sécurisé. Jean-François Bergeron, responsable de la mise sur pied, a parlé d'un « tour de force ».
Comment ? En ne repartant pas de zéro.
La SQDC a été créée comme filiale de la SAQ. Même infrastructure logistique, même expertise en commerce de détail, mêmes réflexes opérationnels. On a greffé un nouveau mandat sur un système qui fonctionnait déjà. Simple d'abord : une vingtaine de succursales, une centaine de produits. Puis on a construit dessus.
Et la SAQ elle-même est un cas d'école. Quand Gaétan Frigon en prend la présidence en 1998, la société d'État souffre de ce qu'il appellera « la maladie du monopole ». Aucune croissance depuis dix ans. Des succursales fermées le dimanche dans des centres commerciaux où les trente autres commerces sont ouverts.
Frigon n'a pas commandé un grand plan stratégique à une firme de consultation. Il a fait le tour des succursales en Gaspésie, a compté les magasins ouverts le dimanche — trente sur trente et un, le seul fermé étant la SAQ — et il les a ouverts. Six cents emplois de plus. Le dimanche est devenu la deuxième journée de ventes en moins d'un an.
Puis il a enchaîné : circulaires, promotions, paiement par carte de crédit, trois bannières (Classique, Express, Sélection), transformation des vendeurs en « conseillers en vin ». Chaque geste simple, greffé sur ce qui fonctionnait déjà. En quatre ans, la SAQ est passée de hors palmarès à troisième entreprise la plus admirée des Québécois.
Son message aux troupes : « Si on veut que nos clients n'appellent pas à la privatisation, soyons les meilleurs. »
Le privé québécois connaît le même principe, même s'il ne cite pas Gall. Desjardins perdait 80 000 membres en cinq ans et traînait au huitième rang en satisfaction client parmi les institutions financières canadiennes. La réponse classique aurait été une refonte technologique massive. Desjardins a plutôt choisi vingt produits prioritaires — ouverture de compte, carte de crédit, renouvellement hypothécaire — et les a numérisés un par un. Cinq ans plus tard : les ventes en ligne sont passées de 25 % à 40 %, quatorze points devant la moyenne canadienne, et le NPS a bondi de onze points. Du huitième rang au deuxième. Nathalie Larue, première vice-présidente, résume l'approche : « Ne jamais isoler le chantier numérique. »
Couche-Tard a suivi la même logique pendant quarante ans. Un seul dépanneur à Laval en 1980. Puis des acquisitions ciblées, digérées une à une — d'abord au Québec, puis au Canada, puis aux États-Unis, puis en Scandinavie, puis en Asie. Chaque marché absorbé avant de passer au suivant. Aujourd'hui : 16 700 magasins dans 27 pays, l'action multipliée par mille. Alain Bouchard n'a jamais tenté de devenir un géant mondial d'un seul coup. Il a construit sur ce qui marchait, encore et encore.
Et Bombardier est peut-être l'exemple le plus spectaculaire. En 2020, l'entreprise frôlait l'écrasement : endettement massif, divisions vendues les unes après les autres, flux de trésorerie négatifs. Éric Martel a pris les commandes avec un plan de redressement sur cinq ans — pas une refonte totale, mais un recentrage progressif : aviation d'affaires d'abord, puis services après-vente, puis défense. Chaque étape construite sur la précédente. En 2025, Bombardier a dépassé tous les objectifs de son plan : 9,55 milliards de revenus, cinquième année consécutive de croissance, un carnet de commandes de 17,5 milliards. Le cas fait désormais l'objet d'études à Harvard et à Columbia. Martel résume : « Nous avons transformé l'entreprise. » Mais il l'a fait morceau par morceau.
La loi de Gall est contre-intuitive pour quiconque vend de la transformation. L'ambition dit : « On voit le problème, on a les ressources, on y va. » La loi de Gall répond : « Plus vous concevez grand d'emblée, plus vous avez de chances d'échouer. »
C'est un problème pour les grandes firmes de consultation, dont le modèle d'affaires repose sur la refonte totale. On diagnostique, on recommande un plan en 200 diapositives, on facture des millions, et on laisse le client avec un système complexe conçu à partir de zéro. Exactement ce que Gall dit de ne jamais faire.
Les organisations qui changent vraiment commencent plus petit que ce qui semble confortable. Une habitude. Une réunion. Une décision qui tient. Puis elles construisent dessus. Non pas parce qu'elles manquent d'ambition — mais parce qu'un système qui fonctionne gagne le droit de grandir. Un système qui ne fonctionne pas s'effondre sous son propre poids.
La question que Gall poserait à n'importe quel comité de direction : Quelle est la version la plus simple du changement que vous essayez de faire ?
Si la réponse prend plus de deux phrases, c'est qu'on n'a pas encore trouvé le système simple.