




Que vous le vouliez ou non, le contexte dans lequel vous évoluez change. Nouvelles attentes des consommateurs, nouvelles tendances, nouvelles réglementations, nouveau contexte concurrentiel... Ces éléments externes s'ajoutent aux changements que vous faites vous-mêmes : nouveaux produits, nouvelles aptitudes, nouvelles embauches, nouveau processus ou nouveau système informatique... Tout change dehors, et tout change dedans.
Deux défis se posent alors. Et c'est à Luc de Brabandère, de Boston Consulting Group, que l'on doit ces observations pertinentes. D'abord, vous devez décider d'un rythme acceptable pour "arrêter la machine" et réfléchir. Cette fréquence dépend de votre industrie, de votre capacité à inventer de nouvelles solutions ou d'opérationnaliser le changement.
Deuxième défi : vivre avec vos décisions raisonnablement. Si vous décidez d'une nouvelle stratégie chaque semaine, votre organisation ne pourra pas suivre. Vous devez donc attendre le "prochain rendez-vous" stratégique pour prendre une nouvelle décision. Il se crée alors un stress qui repose sur les épaules des gestionnaires : être tentés de changer... mais devoir attendre, pour ne pas devenir une "poule sans tête".
Le troisième défi : créer un équilibre entre agilité et constance.

C'est à l'auteur John Coleman, collaborateur régulier du Harvard Business Review que l'on doit cette observation et propose un cadre de réflexion intéressant pour avancer. Il oppose l'agilité et la constance sur deux axes, ce qui permet d'identifier quatre profils d'entreprise.
Manque de sérieux : ni inspirantes, ni fiables, ces organisations n'ont aucune chance d'être comprises en interne ou à l'externe.
Manque de focus : certaines startups sont très agiles, mais elles manquent du focus nécessaire à rassurer les employés, les actionnaires, l'industrie, etc.
Trop de rigidité : de l'autre côté du spectre, les grandes organisations, les institutions financières ont une obligation morale à "protéger et servir". C'est ce qu'on attend d'elles. Mais cette fiabilité vient avec un coût : la rigidité.
Le Graal : la position désirée, c'est un équilibre entre l'agilité et la constance. Oui, mais comment? Nos missions en entreprise nous permettent d'émettre une théorie très très simple. Très.

Afin de devenir une entreprise cohérente, il faut créer un écosystème de décisions cohérent. D'abord, avec une ambition claire (ce que certains appellent une vision). C'est votre destination désirée, et réaliste : nous voulons devenir cela. Ensuite, cette ambition doit devenir le filtre actif de toutes les tactiques de votre plan. Posez-vous la question suivante : ce petit pas tactique mène-t-il au bon endroit stratégique? Si la réponse est oui, alors vous devez avancer. Sinon, vous savez quoi faire...

Tout change tout le temps... dehors comme dedans. Il convient alors de vous fixer une fréquence de réflexions stratégiques, et de résister à l'envie de tout changer tout le temps. Pour devenir un gestionnaire stratégique, il faut créer un équilibre entre l'ambition de l'entreprise (sa destination stratégique) et les décisions du quotidien, les tactiques. Chaque tactique, aussi infime soit-elle, est un petit pas dans la bonne direction, si seulement elle est cohérente avec l'ambition... alors qu'un pas avec la mauvaise orientation stratégique vous fera immanquablement perdre du temps, de l'énergie... et de l'argent.

Steven J. Spear et Gene Kim sont des experts reconnus dans les domaines de la gestion et de l’innovation organisationnelle. Steven J. Spear, professeur au MIT Sloan School of Management, est un spécialiste des systèmes complexes et du lean management. Il est notamment l’auteur de The High-Velocity Edge, un ouvrage qui explore comment certaines organisations réussissent à innover et à s’adapter plus rapidement que leurs concurrents. Gene Kim, quant à lui, est une figure centrale du mouvement DevOps. Il a co-écrit plusieurs livres influents dans ce domaine, dont The Phoenix Project et The Unicorn Project, qui mettent en lumière comment les pratiques technologiques modernes peuvent transformer les entreprises et accroître leur performance.
Leur nouvelle théorie repose sur trois concepts clés : la slowification, la simplification et l'amplification. Voyons comment on peut l'appliquer dans notre quotidien, dans un contexte imprévisible et complexe.
La "zone de danger", selon Spear et Kim, représente les situations où les organisations font face à une grande complexité, des facteurs interconnectés, et des décisions rapides avec des enjeux élevés. C’est un environnement où les problèmes sont difficiles à identifier car ils sont souvent cachés, et où l’absence d'itérations ou d'opportunités de correction conduit à des risques élevés d’échec catastrophique.
Par exemple, le scandale des émissions de Volkswagen en 2015 montre à quel point les entreprises peuvent tomber dans la zone de danger. La manipulation des tests d’émissions dans le but de répondre rapidement aux attentes réglementaires a impliqué de nombreuses parties prenantes dans un système très complexe. L’accélération sans itérations possibles a conduit à une crise qui a coûté à l’entreprise plusieurs milliards de dollars en amendes, en plus d’endommager gravement sa réputation mondiale. La zone de danger, ici, est caractérisée par des décisions rapides, mal pensées, sans possibilité de retour en arrière.

La simplification est la première clé pour sortir de la zone de danger. En rendant les processus plus compréhensibles et contrôlables, les leaders peuvent gérer la complexité de manière proactive. Simplifier signifie réduire le nombre de variables à surveiller et permettre aux équipes d’itérer sur leurs actions. Cela ne signifie pas éliminer la complexité, mais la rendre gérable.
Un exemple classique de simplification réussie se trouve dans l'industrie aéronautique. Airbus, lors du développement de l'A350, a fait face à des défis technologiques complexes avec un grand nombre de nouveaux matériaux et systèmes. En simplifiant les processus de fabrication, en segmentant le développement en phases itératives, et en adoptant des méthodologies agiles, Airbus a pu gérer les risques potentiels liés à la complexité. Résultat : une réduction des coûts et des délais, et un avion qui a su concurrencer efficacement Boeing. La simplification a permis de rendre visibles les problèmes et de les traiter avant qu'ils ne deviennent incontrôlables.
La slowification, un terme emprunté à Spear et Kim, propose une approche radicalement différente de la manière dont les entreprises affrontent la pression. Ralentir le rythme des décisions permet aux organisations de mieux comprendre leur environnement, d’explorer plusieurs options et de détecter plus facilement les problèmes sous-jacents.
Prenons l’exemple de Toyota, un pionnier du lean management. Toyota a intégré la slowification dans sa chaîne de production en instaurant le principe du "Jidoka", qui permet aux travailleurs d’arrêter la ligne de production en cas de problème. Ce ralentissement instantané permet d’identifier et de résoudre les problèmes au moment où ils se produisent, évitant ainsi des erreurs massives coûteuses en aval. En intégrant des mécanismes de slowification, Toyota a pu rester leader dans un secteur ultra compétitif et complexe tout en minimisant les risques.
Dans un autre domaine, Netflix a également utilisé la slowification pour sa stratégie de lancement de contenu. Plutôt que de suivre les modèles traditionnels de diffusion, l’entreprise a opté pour des tests itératifs à petite échelle, observant attentivement les comportements des utilisateurs avant de généraliser ses innovations. Cette stratégie a permis à Netflix d’éviter les investissements massifs dans des projets voués à l’échec, tout en ajustant en temps réel sa programmation et ses développements technologiques.
Enfin, l’amplification permet de maximiser les efforts et de faire grandir l’impact des décisions prises. Amplifier, dans ce contexte, signifie répéter ce qui fonctionne, augmenter la portée des initiatives positives, et s’assurer que les processus simplifiés et les retours issus de la slowification sont pleinement exploités.
Amazon est un bon exemple d'une entreprise ayant utilisé l’amplification pour son modèle logistique. En 2005, Amazon lance le programme Prime, une initiative qui repose sur la simplification du modèle de livraison avec une approche "slowifiée", permettant à l’entreprise de mieux contrôler ses flux logistiques. Après avoir testé le concept dans certaines régions et observé les résultats, Amazon a amplifié cette initiative à l’échelle mondiale. Ce modèle de livraison rapide a ensuite été étendu à de nouveaux services tels que la livraison de produits alimentaires avec Amazon Fresh.
Un autre exemple d’amplification réussie se trouve dans la stratégie de la société Tesla. En commençant par produire des véhicules électriques haut de gamme en faible volume avec la Model S, Tesla a lentement perfectionné sa technologie et ses processus de production. Une fois maîtrisés, Tesla a amplifié son impact en élargissant son offre à des modèles plus abordables comme la Model 3, augmentant ainsi son empreinte sur le marché mondial des véhicules électriques. Chaque étape de simplification et de slowification a permis une amplification massive des résultats sur les marchés internationaux.
Le passage de la zone de danger à la zone de succès n’est pas un processus instantané. Il nécessite de revoir la manière dont une organisation fait face aux pressions externes et aux complexités croissantes. En suivant une approche basée sur la simplification, la slowification et l’amplification, les organisations peuvent réduire les risques, améliorer leurs performances et minimiser les coûts d’échec.
Dans leur livre, Spear et Kim soulignent que ces principes ne s’appliquent pas uniquement aux grandes entreprises mais à toute organisation qui fait face à des défis complexes. En prenant des mesures pour ralentir le processus décisionnel, les leaders peuvent aider leurs équipes à mieux comprendre les problèmes, à itérer sur les solutions, et à amplifier les pratiques qui fonctionnent, menant ainsi à des environnements plus stables et prévisibles.
Robert Gifford est un psychologue canadien renommé, professeur de psychologie et d'études environnementales à l'Université de Victoria, en Colombie-Britannique. Ses recherches se concentrent sur la psychologie environnementale, sociale et de la personnalité. Il a notamment exploré le comportement non verbal et les obstacles comportementaux au changement climatique. Lors de ses recherches, Gifford a identifié 30 facteurs qui poussent les gens à ne pas agir. Pour les simplifier, il les a regroupé en catégories homogènes et les appellé les 7 dragons de l’inaction. Les voici :
Pour y voir plus clair, prenons un exemple concret, soit changer sa voiture à essence pour un modèle électrique. Malgré les nombreux avantages de rouler vert comme la réduction des émissions de CO2, les économies de carburant, l’entretien réduit et les subventions gouvernementales, le taux de pénétration des voitures électriques demeure de 5,3% au Canada. Pourquoi? C’est ce que nous découvrirons à travers les 7 dragons de l’inaction.
L’humain a une capacité cognitive limitée. Ce n’est pas de sa faute: son cerveau a très peu évolué au cours des derniers siècles. Sans compter que de son côté, l’information disponible, elle, évolue constamment et se multiplie à vitesse grand V. Alors, le dragon de la cognition limitée s’explique par une incapacité à traiter l’information, car elle est trop complexe ou trop abondante.
Par exemple, lorsque vient le temps de calculer l’économie de carburant d’une voiture électrique, plusieurs font face à un problème de cognition limitée. Il faut l’essayer pour le voir.
Prenons l’exemple du Volvo EX40 Recharge. Ce VUS offre une autonomie de 472 km. Sa recharge complète prend 82 kW et un kW vaut 0,07$ au Québec. Son prix ? 61 500$. Son homologue à essence a une autonomie de 600 km. Sa consommation est de 9 litres au 100 km et le prix de l’essence était en moyenne 1,45$/litre au cours des 5 dernières années. Son prix ? 45 200$.
Alors maintenant, après combien de kilomètres l’option électrique devient-elle plus économique que l’option à essence? Le calcul n’est même pas commencé que l’on s’épuise à collecter l’information. Et puis honnêtement, avec autant de chiffres et de variables, on préfère ne pas se risquer… preuve que devant trop d’information complexe, il devient difficile de faire des choix.
Qu’elles soient liées à la religion, aux allégeances politiques ou aux valeurs familiales, Gifford avance que nos croyances nous empêchent souvent de changer. L’idéologie motive l’inaction, car un individu profondément attaché à ses convictions peut rejeter tout changement qui ne correspond pas exactement à ses valeurs ou qui ne soutient pas ses principes.
Prenons l’exemple d’une personne dont la famille choisie exclusivement des véhicules de la marque Dodge : elle-même conduit un vieux Caliber sur le point de rendre l’âme, sa mère se promène en Charger, son père a cumulé tous les modèles de Ram possible, et sa sœur vient tout juste d'acquérir un Durango pour l’arrivée d’un bébé. Lorsque vient le temps de remplacer son vieux Dodge, nul ne vaut la peine d’essayer de lui vendre un modèle électrique. Au mieux, elle optera pour un modèle hybride puisque Dodge n’offre aucune option de voiture 100% électrique au moment d’écrire ces lignes. Ainsi, ses idéologies familiales limitent ses choix vers une mobilité plus écologique.
Si l’inaction idéologique est motivée par un ensemble de croyances et de valeurs fermement tenues, visant à promouvoir ou à instaurer ses idéaux, l’incrédulité c’est tout le contraire. Elle est motivée par le scepticisme, le déni et le doute envers certaines croyances, affirmations ou experts. Une personne agissant par incrédulité questionne activement la validité et la fiabilité des informations reçues.
Devant le choix d’opter pour une voiture électrique, une personne incrédule remettra en doute l’autonomie de la batterie, la performance du moteur et l’accessibilité des bornes de recharge pour justifier son inaction. Elle pourrait aussi remettre en doute l’impact environnemental d’une voiture électrique ou encore la réelle économie sur l’essence. Bref, elle accordera une importance démesurée à des doutes non fondés plutôt que des faits vérifiés.
L’humain est avant tout une bête sociale. Lorsque vient le temps d’agir, la majorité des gens préféreront regarder ce que les autres autour d’eux font avant de prendre une décision. La comparaison aux autres c’est le fait de se conformer à une norme sociale. En une phrase : « Pourquoi moi, mais pas les autres? »
Pour comprendre ce phénomène, on a qu’à regarder les ventes de voiture électrique à travers l’Europe. En moyenne, 14,8 % des modèles vendus à travers le vieux continent sont électriques. Ce taux varie grandement d’un pays à l’autre. Par exemple, en Norvège, 83,4% des véhicules vendus sont électriques. En Islande ? 42,1%. En Suède? 38,7%. En Finlande? 33,3%. Et au Danemark? 32,9%. À l’autre bout du spectre, on retrouve des pays du sud comme l’Espagne (4,9%), la Grèce (3,9%) et l’Italie (3,5%). Si dans le cas des pays scandinaves la norme sociale est de posséder une voiture électrique, c’est tout le contraire dans le cas des pays du sud. Avec un taux de pénétration de 5,3% au Canada, on peut dire que la norme sociale n’est pas encore à l’électrique ici!
La plupart des gens préféreront persister dans un projet qui est voué à l’échec uniquement parce qu’ils considèrent avoir trop investi pour abandonner. Si quelqu'un a déjà investi considérablement dans une technologie ou un produit qui est moins écologique, la personne peut se sentir obligée de continuer à utiliser ce produit pour "rentabiliser" son investissement initial, même si de meilleures options écologiques existent.
Les coûts irrécupérables d’une voiture sont nombreux : la valeur à l’achat, les intérêts sur le prêt auto, les frais de réparation, les primes d’assurances… Bref les dépenses s’accumulent au même rythme que les raisons de conserver sa vieille voiture. Ainsi, les coûts irrécupérables peuvent motiver l’inertie, et ce même lorsque des alternatives plus écologiques et durables sont disponibles!
Tout changement aura des effets, qu’ils soient positifs, négatifs ou neutres. Cependant, les études démontrent que l’humain a tendance à donner plus d’importance aux effets négatifs, accentuant le risque perçu lié au changement. On parle ici de risque technologique, environnemental, légal, social… bref toutes les menaces qui influencent nos choix! Et à ces menaces, faire le choix d’acheter une voiture électrique n’y échappent pas.
Devant la carte du Circuit électrique, une personne agissant par risque perçu aura tendance à accentuer l’importance du fait qu’il n’y ait pas de bornes dans certaines régions du Québec. Par exemple, elle pourrait être préoccupée par le fait qu’il n’y a que 10 bornes à Chibougamau alors qu’elle ne prévoit même pas s’y rendre… Elle compte plutôt se déplacer en ville, à Montréal, où il y a 6 347 bornes et se déplacer à Québec à l’occasion. Autres risques qu’elle pourrait amplifier : le fait de tomber en panne par manque de batterie ou d’être en retard en raison du temps de rechargement. Pourtant, avec une bonne planification, ces deux événements sont fort improbables. Bref, les risques perçus sont une raison de plus de justifier l’inaction envers la mobilité durable.
Cet ultime dragon se manifeste souvent face à de grands défis environnementaux ou sociaux comme les changements climatiques ou la pauvreté mondiale. Dans ces contextes, changer de comportement semble assez insignifiant, car on perçoit souvent un manque de contrôle individuel sur ces enjeux collectifs. Ce dragon fait en sorte qu’on a tendance à privilégier les choix faciles à impact modéré au détriment des choix engageants à impact élevé.
Devant les changements climatiques, il est clair que la voiture électrique fait partie des solutions. Mais il s’agit d'une solution parmi des millions. Et d’une voiture parmi des milliards. Conclusion ? Cela donne l’impression que notre action individuelle n’est qu’une goutte d’eau dans un immense océan. Cette perception amène soit l’inaction ou la préférence pour des choix plus faciles. La preuve? Le recyclage est le comportement écoresponsable le plus largement adopté par les Québécois. On peut dire que c’est devenu une norme sociale : 82% de la population l’a intégré à ses habitudes selon l’Observatoire de la consommation responsable de l’UQAM.
On ne peut ignorer certains problèmes éternellement. Cory Doctorow, un écrivain de science-fiction, appelle le moment où un problème est devenu trop gros pour être ignoré le « peak indifference ». Ceux qui ont longtemps refusé d’agir se retrouvent donc confrontés à une situation où l’inaction aura de graves conséquences. Comment éviter d’atteindre ce moment fatidique ? Il faut agir en amont en combinant plusieurs stratégies. Les voici :
En intégrant ces approches éducatives, structurelles, sociales et politiques, il est possible de surmonter les obstacles psychologiques, physiques et sociaux de l’inaction.
C’est une étude de 2011 qui révèle le pot aux roses. Et le pot fait plus mal que les roses : 87 % des entreprises du premier Fortune 500 ont disparu en 60 ans. C’est à Steven Dening de Forbes, à Mark J. Perry de AEI ou encore à Steve Jobs himself que l’on doit l’autopsie des entreprises d’hier (et d’aujourd’hui).
D’abord, il convient de classer les entreprises en trois groupes :
Seules 67 entreprises composent le groupe B. Il existe plusieurs raisons qui expliquent la disparition de la majorité des entreprises. Soit elles ont fait faillite, soit elles ont fusionné avec une autre entreprise, soit elles existent encore, mais ne sont plus dans le TOP500 de Fortune.
Parmi celles qui sont véritablement mortes, Perry cite entre autres des marques tombées dans les limbes de l’histoire économique : Armstrong Rubber, Cone Mills, Hines Lumber, Pacific Vegetable Oil ou encore Riegel Textile. Mais, quelle que soit la raison de ce déclassement, ce dernier révèle une incapacité à survivre dans un monde changeant.
Le consommateur a de nouvelles habitudes, de nouvelles attentes, de nouveaux désirs… il change de comportement à une vitesse vertigineuse. Une entreprise qui naît de ces besoins saura mieux y répondre que les joueurs bien installés. Sans entraves, sans passif, sans mauvaises habitudes, de nouvelles entreprises viennent jouer le jeu de la destruction créatrice introduite par Joseph Schumpeter en 1942 : le nouveau détruit l’ancien. Attention cependant, cette culture de la tabula rasa (table rase) n’est pas réservée qu’aux nouvelles entreprises. Elle s’applique aussi dans les entreprises historiques, qui n’hésitent pas à se réinventer elles-mêmes.

Dans un article du Wall Street Journal, Peggy Nooman aborde la philosophie de Jobs et son regard sur la mutation des industries :
Il y a un moment saisissant dans la biographie de Steve Jobs par Walter Isaacson, dans lequel Jobs parle longuement de sa philosophie d’entreprise. Il est à la fin de sa vie et fait le point. Sa mission, dit-il, était claire : « construire une entreprise pérenne où les gens sont motivés à fabriquer d’excellents produits ». Puis il se tourne vers l’ascension et la chute de diverses entreprises. Il a une théorie sur le déclin dans les grandes entreprises : « L’entreprise fait du bon travail, innove et devient un monopole (ou presque) dans un certain domaine, et puis la qualité du produit devient moins importante. L’entreprise commence à valoriser les produits qui se vendent le mieux, car ce sont ceux qui peuvent influencer les revenus. » Ainsi, les vaches à lait sont mises de l’avant, les ingénieurs de produit et les designers se sentent dégradés : leurs efforts ne sont plus au cœur de la vie quotidienne de l’entreprise. Ils « décrochent ». IBM et Xerox, a dit Jobs, ont flanché précisément de cette manière. Ceux qui dirigeaient les entreprises étaient intelligents et éloquents, mais « ils ne savaient rien du produit ». À la fin, cela peut condamner une grande entreprise, car ce que les consommateurs veulent, ce sont de bons produits.
En bref, les entreprises qui ont trouvé leur vache à lait ne pensent plus qu’à la traire, et abandonnent peu à peu l’innovation. Perry évoque aussi cette perte de la flamme créatrice par l’arrivée massive des money men, ces comptables et financiers qui s’emparent de l’organisation avec un objectif simple : couper les coûts, et traire la vache toujours davantage. Ce sont eux, les stars de l’entreprise désormais, et ils sont célébrés et rémunérés à la hauteur de leur capacité à couper. Ce changement radical de culture écœure les inventeurs, les créateurs, les ingénieurs, tous ceux et celles qui ont créé la vraie richesse de l’entreprise à la base. Ils finissent par quitter le navire et vont innover ailleurs. Ce phénomène touche même les entreprises qui ont réussi à créer un monopole. Quand elles commencent à jouer défensif, elles commencent à creuser leur tombe, en imposant une culture du profit à tout prix, en assassinant le risque, le courage et les idées nouvelles.
À force d’être obsédées par leur bottom line (leurs résultats financiers), les entreprises font de mieux en mieux ce qu’elles savent faire, plutôt que de servir au mieux les attentes de leurs clients. À leur décharge, n’oublions pas aussi qu’elles traînent parfois un passif coûteux (équipements vétustes, technologies héritées du passé, habitudes managériales dépassées, marque poussiéreuse, etc.).
On l’a vu à de nombreuses reprises dans des faillites aussi tristes que fréquentes autour de nous : Zellers, Sears, Eaton… les grandes chaînes de distribution n’ont pas su imposer la révolution logistique qui aurait pu leur donner un avantage sur Amazon. Pourtant, elles avaient toutes les cartes en main.
Un autre rapport daté de 2016, cette fois publié par Innosight, révèle que cette obsolescence des entreprises s’accélère avec le temps. Le titre est en forme de mise en garde : Longévité des entreprises : Turbulences à venir pour les grandes organisations. Allez, on s’accroche !
L’étude a observé l’indice S&P 500, également connu sous le nom de Standard & Poor’s 500. C’est un indice boursier basé sur la capitalisation boursière de 500 des plus grandes entreprises cotées sur les bourses américaines, telles que la New York Stock Exchange (NYSE) et le NASDAQ. Cet indice est considéré comme l’un des indicateurs les plus représentatifs de la performance du marché boursier américain et, par extension, de l’économie américaine en raison de la diversité et de l’importance des entreprises qu’il inclut.
En 1965, les entreprises de l’indice S&P 500 demeuraient dans l’indice pendant en moyenne 33 ans. En 1990, la durée moyenne dans le S&P 500 s’était réduite à 20 ans. Elle est prévue aux alentours de 14 ans d’ici 2026. Au taux de rotation actuel, environ la moitié des entreprises actuelles du S&P 500 seront remplacées au cours des 10 prochaines années alors que « nous entrons dans une période de volatilité accrue pour les entreprises leaders dans un éventail d’industries, les dix prochaines années s’annonçant comme les plus potentiellement turbulentes de l’histoire moderne », selon Innosight.
Longévité en 1965 : 33 ans. Longévité en 1990 : 20 ans. Longévité en 2026 : 14 ans. Votre entreprise va mourir. Bientôt. Très bientôt. Ou pas ?
Ces prédictions ont bientôt 10 ans, celles de Forbes, 11.
Alors que des marques meurent, d’autres naissent. C’est le cycle de la vie — ou ce que j’appelle le darwinisme économique.
Depuis, voici un petit échantillon du carnet rose des naissances dans le merveilleux monde du Fortune 500 : NVIDIA (entrée en 2016), Instagram (2020), YouTube (2020), Zoom (2020), Domino’s Pizza (2020), DexCom (2020), Tesla (2022), Airbnb (2023).
Les entreprises qui durent, et qui maintiennent un niveau de satisfaction de leurs clients élevé (Apple, Netflix, IKEA, Starbucks…) ont un point commun : elles comprennent mieux que quiconque les nouvelles attentes de leurs clients. Elles savent prendre des risques, innover
et échouer… mais gagnent le respect du marché et de leurs employés. La curiosité, la candeur, l’invention, l’innovation. Voici les composantes d’une culture d’entreprise pérenne. Si cette dernière ne garantit pas toujours le succès, elle assure au moins la motivation des employés à créer de nouvelles idées, carburant vital des organisations depuis toujours.
C'est à Richard Buckminster Fuller que nous devons la théorie de la Knowledge Doubling Curve, une prédiction dictée en 1980 et qui se vérifie aujourd'hui.
Bucky était le mauvais garçon de la Silicon Valley. Plusieurs fois viré de Harvard, il est devenu une inspiration pour le mouvement cybernétique et un gourou pour la communauté technologique naissante des années 60. Véritable touche-à-tout, architecte, designer, inventeur fou et futurologue, il est le papa de la biosphère de Montréal, et celui d'une théorie : la connaissance collective est exponentielle.
Cette théorie a peu été relayée par les universitaires de l’époque, mais tout s’explique par la réputation académique de Bucky. Or, aujourd’hui, elle résonne comme une véritable prédiction. L’idée : la connaissance collective à vitesse exponentielle. Attention, pas l’intelligence collective, la connaissance collective !

Il fallait 100 ans pour que la connaissance collective double en 1900.
Il fallait 25 ans pour que la connaissance collective double au milieu du siècle dernier.
Il fallait 13 mois pour que la connaissance collective double en 2016.
IBM a même poursuivi ces projections et annonce que le savoir doublera toutes les... douze heures, en 2036.
Pensez au corpus de connaissances de la médecine De Humani Corporis Fabrica (sur la structure du corps humain), qui fut l’œuvre majeure d’André Vésale, et véritable référence pour tous les scientifiques du xvie siècle. Tout était là. Toute la connaissance de la médecine rassemblée dans une seule œuvre publiée en 1543. Ce fut un tournant dans l’histoire de la médecine et de l’étude de l’anatomie humaine. Cet ouvrage était si imposant qu’il est souvent confondu avec une encyclopédie en raison de sa vaste couverture du sujet et de sa contribution fondamentale à la compréhension du corps humain. Tout le savoir de l’humanité sur l’humain ! Bon, eh bien De Humani Corporis Fabrica comptait 659 pages illustrées. Imaginez, en moins de 700 pages, on savait tout sur tout, sur la médecine du xvie siècle. Imaginez maintenant le volume de connaissances que nous avons sur le corps humain aujourd’hui !
Ou pensez encore à l’effervescence des sciences après la Deuxième Guerre mondiale, en partie produite par la fuite des cerveaux d’Europe centrale vers les universités américaines après l’élection d’Hitler en 1933. Tous les grands campus américains ont hérité de ces exilés allemands, autrichiens, hongrois, polonais expulsés par le régime nazi — notamment grâce à la fondation Rockefeller. Cette dernière mit en place un fonds d’aide spéciale pour les chercheurs destitués (Aid Fund for Deposed Scholars) destiné à financer des universitaires et intellectuels européens contraints de fuir le nazisme. Entre 1933 et 1942, ce programme permit d’aider plusieurs centaines d’intellectuels à trouver refuge sur des campus américains. Sans faire d’angélisme — l’accueil des chercheurs juifs était tout de même timide : il suffit de s’intéresser au parcours d’Einstein pour s’en convaincre —, ces années furent fructueuses sur le plan scientifique.
Les disciplines se croisèrent, les savoirs s’entrechoquèrent, et de nouveaux modes de pensée ont émergé de ces mélanges. C’est la naissance de la hiérarchie des besoins et des motivations de Maslow, c’est le début du design thinking, des focus groups, de l’informatique de Von Neumann en 1945, et bientôt de l’intelligence artificielle en 1955, avec la fine équipe de Dartmouth.
Ces inventions, combinées, ont accéléré davantage la production de connaissances, liée depuis à la puissance des ordinateurs. Depuis l’invention de l’ordinateur, la recherche est liée à la puissance des microprocesseurs, avec une loi bien connue (et parfois contestée), la loi de Moore. Gordon Moore était un des cofondateurs d’Intel, et un des papas du microprocesseur. Sa loi n’est pas tant une loi physique qu’une observation empirique, mais elle a fait foi pendant des décennies. Voilà ce qu’elle dit : à coût constant, la vitesse des microprocesseurs double tous les 18 mois. Une prédiction de 1965 — que Buckminster Fuller avait anticipée plusieurs années auparavant — restée vraie jusqu’en 2015, la physique imposant des barrières naturelles à la progression de cette vitesse. Moore avait lui-même prévu la limite de sa propre loi. Une limite physique insurmontable, puisqu’en dessous d’une échelle nanométrique (sous 10 nm), il devient difficile de miniaturiser davantage les microprocesseurs sans faire face à des problèmes complexes : effets quantiques, dissipation thermique, limitations de la lithographie, etc. Dès lors, il a été plus facile de multiplier les processeurs que de miniaturiser les microprocesseurs.
C’était sans compter le génie des équipes de Jensen Huang, grand patron de NVIDIA. En 2019, il déclare la mort de la loi de Moore et qu’il faudra désormais compter sur d’autres types de technologie… Optimisation des architectures, parallélisation des cœurs de processeurs et spécialisation des microprocesseurs (notamment les GPU) ont révolutionné l’approche de l’informatique matérielle. L’accélération des ordinateurs est redevenue possible, accélérant encore et encore la production de connaissances.
Aujourd’hui, les chercheurs ne cherchent plus. Ils ont produit des IA capables de chercher à leur place, donc de plus en plus vite. Par exemple, cette IA nommée M3GNet, développée par l’Université de Californie, a « inventé » une base de données de plus de 31 millions de nouveaux matériaux inexistants, en prédisant également leurs propriétés. Grâce à M3GNet, l’humanité découvre de nouveaux matériaux à une vitesse totalement inédite, vertigineuse.

Alors ? Buckminster était-il fou de considérer que la connaissance allait grandir à une vitesse exponentielle ? Au-delà de notre ressenti, quelle preuve tangible peut-on produire pour montrer le bien-fondé de son intuition ? La réponse est arrivée chez Perrier Jablonski au détour d’un mandat, pour lequel nous avions à creuser le sujet. Nous sommes tombés sur une étude édifiante, celle de l’American Clinical and Climatological Association, publiée en 2011.
Cette étude voulait alerter l’administration Obama sur les défis de la formation des médecins, dans un monde où la connaissance grandit si vite. Et le rapport donne des chiffres. Évidemment, ces chiffres sont faciles à obtenir à une époque où tout se compte (brevets, recherches, mémoires, etc.). Les voici.
Il fallait 50 ans pour que la connaissance médicale double en 1950, 7 ans en 1980, 3 ans et demi en 2010... et... 73 jours en 2020. Un étudiant qui a commencé ses études de médecine en 2010 est devenu médecin en 2017. Dans ce même laps de temps, la connaissance médicale a doublé trois fois.
Si vous pensiez que le monde allait certainement ralentir un jour, j’ai une réponse pour vous. Enfin, pas moi, mais le président de Google, Sundar Pichai, qui annonçait en 2019 les premiers tests du premier processeur quantique, le Sycamore 54-qubit. Sycamore a réalisé un calcul complexe en 3 minutes et 20 secondes... alors qu’il faudrait 10 000 ans aux meilleurs super calculateurs du marché. Bien évidemment, il s’agit d’un test réalisé dans des conditions impossibles à reproduire dans le quotidien... Mais ce n’est qu’une question de temps.
Trois minutes contre 10 000 ans. Non, l’accélération n’est pas prête de ralentir...

Mobilité ou immobilisme? Deux mille ans plus tard, Galilée viendra départager ces deux écoles de pensée par l'observation du mouvement perpétuel de la Terre sur elle-même, et autour du Soleil. Le match se termine donc en 1610 avec la victoire du changement permanent, donc d'Héraclite.
Or, limiter Parménide et Héraclite au mouvement, c’est se priver d’une pensée beaucoup plus riche, bien plus intéressante, et plus profonde encore. Nous avons eu recours aux lumières de plusieurs philosophes pour éclairer notre chemin. D'abord l'illustre Jean-François Mattéi (1941-2014). Ensuite Barbara Cassin, philosophe spécialiste des philosophes grecs et enfin André Laks, professeur de philosophie ancienne à la Sorbonne.
Évidemment, il convient de mesurer les innombrables altérations de ces textes primitifs à travers l'histoire — des fragments qui nous sont parvenus partiels et transformés. Cependant, ils ont occupé les pensées de Platon, Aristote, Hegel, Heidegger, Nietzsche et bien d'autres... et préoccupent de nombreux philosophes contemporains. Ils ont le mérite de susciter chez le lecteur curieux des questionnements profonds et utiles.
Loin de moi la prétention d'ajouter une pierre à cet édifice. Je propose l'emprunt, la ruse. Je veux aller chercher à la source même, de nouveaux mécanismes, de nouvelles métaphores. Cet article s'adresse aux curieux. À celles qui n'ont pas peur des acrobaties. À ceux qui n'ont pas peur du feu. Bref, à celui ou à celle qui a déjà osé lire jusqu'ici.
D’abord, Parménide était le penseur du Tout, comme Pythagore avant lui. Il y avait l'être... et rien d’autre. Le non-être ne pouvant être amené à notre conscience est inexistant. Le fragment 6 trop simplement traduit par L'être est, le non-être n’est pas a donné beaucoup de travail aux philosophes, aux philologues et aux traducteurs, qui continuent encore aujourd'hui à se contredire sur le sens profond de cette pensée fondatrice.
Pour Parménide, il n'y a que deux voies possibles : est et n'est pas. Mais est — du grec esti — peut prendre plusieurs formes : il existe, il est possible, il y a. Aussi, la tautologie (une formule qui ne peut être que vraie) pose que si A est A, alors A est parfaitement A, et A n'est rien d'autre que A — c'est la naissance des axiomes mathématiques.
Le Tout se définit donc par tout ce qui ne change pas, par ce qui est permanent, immuable. C'est ce qui est vrai et qui restera vrai. C'est l'identité ontologique : ce qui se définit dans l'absolu. Dès lors, ce qui change n'est qu'opinion (doxa), éphémère et sans valeur. Dans le Tout se trouve l'idée d'une Unité de tout l’univers dans tous les temps. Le passé, le présent et l’avenir cohabitent... avec l'impossibilité du devenir.
Si la traduction pose quelques problèmes aux philosophes encore aujourd'hui, on peut aussi retenir que nommer le néant... c'est le détruire, puisque c’est lui donner une consistance. Le néant est donc impossible, impensable. Tout est, et c'est tout. Dès lors, Parménide propose un Tout « tout puissant », immuable, impossible à changer. Rien ne change jamais, donc.
Pour sa part, Héraclite propose l'idée que Tout est composé d'opposés. La route monte et descend en même temps, selon le sens qu’on prend. Le fleuve dans lequel on se baigne change chaque seconde, mais reste le même et unique fleuve qui porte pour cette raison le même et unique nom. Pour Héraclite le monde est tissé de contraires pour mieux affirmer son unité, et Héraclite fustige les hommes incapables de reconnaître ces jeux de contraires logiques, les privant alors du pouvoir de raisonnement.
Héraclite était le philosophe qui pleure, sans cesse effondré par l'attitude des hommes qui ne savaient que faire la guerre. Nietzsche en avait fait le philosophe du combat, en révélant que si Tout contient des contraires, il faut les départager. Une lutte s'enclenche alors entre ces deux possibles, pour que l'un des deux l'emporte. Pour Héraclite, tout est un combat potentiel pour décider d’une voie à prendre plutôt qu'une autre. Tout est alors composé d’un changement à venir, d’un état de transformation permanent. Tout change tout le temps, donc.
Tout devenir naît de la lutte des contraires. Les qualités définies qui nous semblent durables n’expriment que la suprématie momentanée de l’un des combattants, mais la lutte n'en continue pas moins, le combat se poursuit éternellement. C'est en fonction de ce combat que tout ce qui se produit advient et c’est précisément ce combat qui révèle la justice cohérente et sévère, liée à des lois éternelles. — Nietzsche.
C'est l'harmonie des paradoxes. Ce qui est différent de soi-même s’accorde avec soi-même. Et celui qui s'enferme dans son propre raisonnement est un rêveur isolé qui ne participe pas au raisonnement collectif. Ce penseur recroquevillé sur lui-même porte un nom en grec ancien : l'idiot. L'idiot n'est pas l'imbécile. L'idiot est celui qui ne croit que lui-même. Et la langue française a conservé une trace de ce sens, avec l'idiosyncrasie — une disposition à réagir de manière particulière aux agents extérieurs. Ici, particulière doit être pris dans le sens d'individuel.
Déjà à l'époque, jeu de dualités n'était pas nouveau. Sans rien ôter à ces deux fondateurs de la pensée, il convient tout de même de rendre à Pythagore ce qui lui revient. Sur le fronton de l'École qu'il créa à Crotone, on pouvait lire "Dieu a tiré la Terre du néant comme il a créé le Un du rien pour créer la multitude". Au-delà de l'incroyable poésie de cette sentence, on y perçoit toute la richesse philosophique qu'elle porte en elle. C'est le début du Tout, de l'unité, du rien et de tout ce qu'il y a entre eux.
Ces questionnements du rien et du tout, de l'unité et du multiple, du vrai et du possible, de l'harmonie et des opposés, ont forgé à la fois notre vision du monde, notre raisonnement, notre langage et nos mathématiques. Ils sont la source de tout. Par exemple, puisqu’il existe une frontière entre quelque chose et rien, que se passe-t-il précisément à cet endroit? Le calcul infinitésimal d’Archimède, Newton et Leibnitz répondra à cette question. Et puisqu’il existe plusieurs possibilités d’un présent à venir, comment s'organise ce choix? Ce sont ici les bases des mondes possibles de Leibnitz...
Pour finir, il est cocasse de souligner que l'unité (le Tout) est composée d'unités (les objets) qui se mesurent... avec des unités (poids, taille, etc.) Les unités des unités de l'unité. Un seul mot pour décrire l'infiniment grand et l'infiniment petit, le pourquoi, le quoi et le comment. Voilà une pensée parfaitement parmédienne, héraclitéenne... et pythagoricienne.