




C’est une étude de 2011 qui révèle le pot aux roses. Et le pot fait plus mal que les roses : 87 % des entreprises du premier Fortune 500 ont disparu en 60 ans. C’est à Steven Dening de Forbes, à Mark J. Perry de AEI ou encore à Steve Jobs himself que l’on doit l’autopsie des entreprises d’hier (et d’aujourd’hui).
D’abord, il convient de classer les entreprises en trois groupes :
Seules 67 entreprises composent le groupe B. Il existe plusieurs raisons qui expliquent la disparition de la majorité des entreprises. Soit elles ont fait faillite, soit elles ont fusionné avec une autre entreprise, soit elles existent encore, mais ne sont plus dans le TOP500 de Fortune.
Parmi celles qui sont véritablement mortes, Perry cite entre autres des marques tombées dans les limbes de l’histoire économique : Armstrong Rubber, Cone Mills, Hines Lumber, Pacific Vegetable Oil ou encore Riegel Textile. Mais, quelle que soit la raison de ce déclassement, ce dernier révèle une incapacité à survivre dans un monde changeant.
Le consommateur a de nouvelles habitudes, de nouvelles attentes, de nouveaux désirs… il change de comportement à une vitesse vertigineuse. Une entreprise qui naît de ces besoins saura mieux y répondre que les joueurs bien installés. Sans entraves, sans passif, sans mauvaises habitudes, de nouvelles entreprises viennent jouer le jeu de la destruction créatrice introduite par Joseph Schumpeter en 1942 : le nouveau détruit l’ancien. Attention cependant, cette culture de la tabula rasa (table rase) n’est pas réservée qu’aux nouvelles entreprises. Elle s’applique aussi dans les entreprises historiques, qui n’hésitent pas à se réinventer elles-mêmes.

Dans un article du Wall Street Journal, Peggy Nooman aborde la philosophie de Jobs et son regard sur la mutation des industries :
Il y a un moment saisissant dans la biographie de Steve Jobs par Walter Isaacson, dans lequel Jobs parle longuement de sa philosophie d’entreprise. Il est à la fin de sa vie et fait le point. Sa mission, dit-il, était claire : « construire une entreprise pérenne où les gens sont motivés à fabriquer d’excellents produits ». Puis il se tourne vers l’ascension et la chute de diverses entreprises. Il a une théorie sur le déclin dans les grandes entreprises : « L’entreprise fait du bon travail, innove et devient un monopole (ou presque) dans un certain domaine, et puis la qualité du produit devient moins importante. L’entreprise commence à valoriser les produits qui se vendent le mieux, car ce sont ceux qui peuvent influencer les revenus. » Ainsi, les vaches à lait sont mises de l’avant, les ingénieurs de produit et les designers se sentent dégradés : leurs efforts ne sont plus au cœur de la vie quotidienne de l’entreprise. Ils « décrochent ». IBM et Xerox, a dit Jobs, ont flanché précisément de cette manière. Ceux qui dirigeaient les entreprises étaient intelligents et éloquents, mais « ils ne savaient rien du produit ». À la fin, cela peut condamner une grande entreprise, car ce que les consommateurs veulent, ce sont de bons produits.
En bref, les entreprises qui ont trouvé leur vache à lait ne pensent plus qu’à la traire, et abandonnent peu à peu l’innovation. Perry évoque aussi cette perte de la flamme créatrice par l’arrivée massive des money men, ces comptables et financiers qui s’emparent de l’organisation avec un objectif simple : couper les coûts, et traire la vache toujours davantage. Ce sont eux, les stars de l’entreprise désormais, et ils sont célébrés et rémunérés à la hauteur de leur capacité à couper. Ce changement radical de culture écœure les inventeurs, les créateurs, les ingénieurs, tous ceux et celles qui ont créé la vraie richesse de l’entreprise à la base. Ils finissent par quitter le navire et vont innover ailleurs. Ce phénomène touche même les entreprises qui ont réussi à créer un monopole. Quand elles commencent à jouer défensif, elles commencent à creuser leur tombe, en imposant une culture du profit à tout prix, en assassinant le risque, le courage et les idées nouvelles.
À force d’être obsédées par leur bottom line (leurs résultats financiers), les entreprises font de mieux en mieux ce qu’elles savent faire, plutôt que de servir au mieux les attentes de leurs clients. À leur décharge, n’oublions pas aussi qu’elles traînent parfois un passif coûteux (équipements vétustes, technologies héritées du passé, habitudes managériales dépassées, marque poussiéreuse, etc.).
On l’a vu à de nombreuses reprises dans des faillites aussi tristes que fréquentes autour de nous : Zellers, Sears, Eaton… les grandes chaînes de distribution n’ont pas su imposer la révolution logistique qui aurait pu leur donner un avantage sur Amazon. Pourtant, elles avaient toutes les cartes en main.
Un autre rapport daté de 2016, cette fois publié par Innosight, révèle que cette obsolescence des entreprises s’accélère avec le temps. Le titre est en forme de mise en garde : Longévité des entreprises : Turbulences à venir pour les grandes organisations. Allez, on s’accroche !
L’étude a observé l’indice S&P 500, également connu sous le nom de Standard & Poor’s 500. C’est un indice boursier basé sur la capitalisation boursière de 500 des plus grandes entreprises cotées sur les bourses américaines, telles que la New York Stock Exchange (NYSE) et le NASDAQ. Cet indice est considéré comme l’un des indicateurs les plus représentatifs de la performance du marché boursier américain et, par extension, de l’économie américaine en raison de la diversité et de l’importance des entreprises qu’il inclut.
En 1965, les entreprises de l’indice S&P 500 demeuraient dans l’indice pendant en moyenne 33 ans. En 1990, la durée moyenne dans le S&P 500 s’était réduite à 20 ans. Elle est prévue aux alentours de 14 ans d’ici 2026. Au taux de rotation actuel, environ la moitié des entreprises actuelles du S&P 500 seront remplacées au cours des 10 prochaines années alors que « nous entrons dans une période de volatilité accrue pour les entreprises leaders dans un éventail d’industries, les dix prochaines années s’annonçant comme les plus potentiellement turbulentes de l’histoire moderne », selon Innosight.
Longévité en 1965 : 33 ans. Longévité en 1990 : 20 ans. Longévité en 2026 : 14 ans. Votre entreprise va mourir. Bientôt. Très bientôt. Ou pas ?
Ces prédictions ont bientôt 10 ans, celles de Forbes, 11.
Alors que des marques meurent, d’autres naissent. C’est le cycle de la vie — ou ce que j’appelle le darwinisme économique.
Depuis, voici un petit échantillon du carnet rose des naissances dans le merveilleux monde du Fortune 500 : NVIDIA (entrée en 2016), Instagram (2020), YouTube (2020), Zoom (2020), Domino’s Pizza (2020), DexCom (2020), Tesla (2022), Airbnb (2023).
Les entreprises qui durent, et qui maintiennent un niveau de satisfaction de leurs clients élevé (Apple, Netflix, IKEA, Starbucks…) ont un point commun : elles comprennent mieux que quiconque les nouvelles attentes de leurs clients. Elles savent prendre des risques, innover
et échouer… mais gagnent le respect du marché et de leurs employés. La curiosité, la candeur, l’invention, l’innovation. Voici les composantes d’une culture d’entreprise pérenne. Si cette dernière ne garantit pas toujours le succès, elle assure au moins la motivation des employés à créer de nouvelles idées, carburant vital des organisations depuis toujours.
Beaucoup d’entreprises ne changent pas. La plupart d’entre elles voient leur modèle d’affaires comme une partie intégrante de leur ADN… Si bien que, quand l’environnement change, elles ne savent pas changer. Avec le temps, la plupart des entreprises font de mieux en mieux des choses… qui intéressent de moins en moins les gens. La solution : une grande compréhension du consommateur, et une culture d’entreprise axée sur la curiosité et la nouveauté.

C'est à Richard Buckminster Fuller que nous devons la théorie de la Knowledge Doubling Curve, une prédiction dictée en 1980 et qui se vérifie aujourd'hui.
Bucky était le mauvais garçon de la Silicon Valley. Plusieurs fois viré de Harvard, il est devenu une inspiration pour le mouvement cybernétique et un gourou pour la communauté technologique naissante des années 60. Véritable touche-à-tout, architecte, designer, inventeur fou et futurologue, il est le papa de la biosphère de Montréal, et celui d'une théorie : la connaissance collective est exponentielle.
Cette théorie a peu été relayée par les universitaires de l’époque, mais tout s’explique par la réputation académique de Bucky. Or, aujourd’hui, elle résonne comme une véritable prédiction. L’idée : la connaissance collective à vitesse exponentielle. Attention, pas l’intelligence collective, la connaissance collective !

Il fallait 100 ans pour que la connaissance collective double en 1900.
Il fallait 25 ans pour que la connaissance collective double au milieu du siècle dernier.
Il fallait 13 mois pour que la connaissance collective double en 2016.
IBM a même poursuivi ces projections et annonce que le savoir doublera toutes les... douze heures, en 2036.
Pensez au corpus de connaissances de la médecine De Humani Corporis Fabrica (sur la structure du corps humain), qui fut l’œuvre majeure d’André Vésale, et véritable référence pour tous les scientifiques du xvie siècle. Tout était là. Toute la connaissance de la médecine rassemblée dans une seule œuvre publiée en 1543. Ce fut un tournant dans l’histoire de la médecine et de l’étude de l’anatomie humaine. Cet ouvrage était si imposant qu’il est souvent confondu avec une encyclopédie en raison de sa vaste couverture du sujet et de sa contribution fondamentale à la compréhension du corps humain. Tout le savoir de l’humanité sur l’humain ! Bon, eh bien De Humani Corporis Fabrica comptait 659 pages illustrées. Imaginez, en moins de 700 pages, on savait tout sur tout, sur la médecine du xvie siècle. Imaginez maintenant le volume de connaissances que nous avons sur le corps humain aujourd’hui !
Ou pensez encore à l’effervescence des sciences après la Deuxième Guerre mondiale, en partie produite par la fuite des cerveaux d’Europe centrale vers les universités américaines après l’élection d’Hitler en 1933. Tous les grands campus américains ont hérité de ces exilés allemands, autrichiens, hongrois, polonais expulsés par le régime nazi — notamment grâce à la fondation Rockefeller. Cette dernière mit en place un fonds d’aide spéciale pour les chercheurs destitués (Aid Fund for Deposed Scholars) destiné à financer des universitaires et intellectuels européens contraints de fuir le nazisme. Entre 1933 et 1942, ce programme permit d’aider plusieurs centaines d’intellectuels à trouver refuge sur des campus américains. Sans faire d’angélisme — l’accueil des chercheurs juifs était tout de même timide : il suffit de s’intéresser au parcours d’Einstein pour s’en convaincre —, ces années furent fructueuses sur le plan scientifique.
Les disciplines se croisèrent, les savoirs s’entrechoquèrent, et de nouveaux modes de pensée ont émergé de ces mélanges. C’est la naissance de la hiérarchie des besoins et des motivations de Maslow, c’est le début du design thinking, des focus groups, de l’informatique de Von Neumann en 1945, et bientôt de l’intelligence artificielle en 1955, avec la fine équipe de Dartmouth.
Ces inventions, combinées, ont accéléré davantage la production de connaissances, liée depuis à la puissance des ordinateurs. Depuis l’invention de l’ordinateur, la recherche est liée à la puissance des microprocesseurs, avec une loi bien connue (et parfois contestée), la loi de Moore. Gordon Moore était un des cofondateurs d’Intel, et un des papas du microprocesseur. Sa loi n’est pas tant une loi physique qu’une observation empirique, mais elle a fait foi pendant des décennies. Voilà ce qu’elle dit : à coût constant, la vitesse des microprocesseurs double tous les 18 mois. Une prédiction de 1965 — que Buckminster Fuller avait anticipée plusieurs années auparavant — restée vraie jusqu’en 2015, la physique imposant des barrières naturelles à la progression de cette vitesse. Moore avait lui-même prévu la limite de sa propre loi. Une limite physique insurmontable, puisqu’en dessous d’une échelle nanométrique (sous 10 nm), il devient difficile de miniaturiser davantage les microprocesseurs sans faire face à des problèmes complexes : effets quantiques, dissipation thermique, limitations de la lithographie, etc. Dès lors, il a été plus facile de multiplier les processeurs que de miniaturiser les microprocesseurs.
C’était sans compter le génie des équipes de Jensen Huang, grand patron de NVIDIA. En 2019, il déclare la mort de la loi de Moore et qu’il faudra désormais compter sur d’autres types de technologie… Optimisation des architectures, parallélisation des cœurs de processeurs et spécialisation des microprocesseurs (notamment les GPU) ont révolutionné l’approche de l’informatique matérielle. L’accélération des ordinateurs est redevenue possible, accélérant encore et encore la production de connaissances.
Aujourd’hui, les chercheurs ne cherchent plus. Ils ont produit des IA capables de chercher à leur place, donc de plus en plus vite. Par exemple, cette IA nommée M3GNet, développée par l’Université de Californie, a « inventé » une base de données de plus de 31 millions de nouveaux matériaux inexistants, en prédisant également leurs propriétés. Grâce à M3GNet, l’humanité découvre de nouveaux matériaux à une vitesse totalement inédite, vertigineuse.

Alors ? Buckminster était-il fou de considérer que la connaissance allait grandir à une vitesse exponentielle ? Au-delà de notre ressenti, quelle preuve tangible peut-on produire pour montrer le bien-fondé de son intuition ? La réponse est arrivée chez Perrier Jablonski au détour d’un mandat, pour lequel nous avions à creuser le sujet. Nous sommes tombés sur une étude édifiante, celle de l’American Clinical and Climatological Association, publiée en 2011.
Cette étude voulait alerter l’administration Obama sur les défis de la formation des médecins, dans un monde où la connaissance grandit si vite. Et le rapport donne des chiffres. Évidemment, ces chiffres sont faciles à obtenir à une époque où tout se compte (brevets, recherches, mémoires, etc.). Les voici.
Il fallait 50 ans pour que la connaissance médicale double en 1950, 7 ans en 1980, 3 ans et demi en 2010... et... 73 jours en 2020. Un étudiant qui a commencé ses études de médecine en 2010 est devenu médecin en 2017. Dans ce même laps de temps, la connaissance médicale a doublé trois fois.
Si vous pensiez que le monde allait certainement ralentir un jour, j’ai une réponse pour vous. Enfin, pas moi, mais le président de Google, Sundar Pichai, qui annonçait en 2019 les premiers tests du premier processeur quantique, le Sycamore 54-qubit. Sycamore a réalisé un calcul complexe en 3 minutes et 20 secondes... alors qu’il faudrait 10 000 ans aux meilleurs super calculateurs du marché. Bien évidemment, il s’agit d’un test réalisé dans des conditions impossibles à reproduire dans le quotidien... Mais ce n’est qu’une question de temps.
Trois minutes contre 10 000 ans. Non, l’accélération n’est pas prête de ralentir...

On met quelques personnes dans une salle avec une vitre sans tain. On leur fait goûter un yogourt, on les fait parler de leur voiture, de ce qu’ils pensent de la publicité que l’on vient de montrer ou de la nouvelle texture d’un shampoing. On leur donne 50 $ en bon d’achat chez Jean Coutu pour le dérangement... Et l’affaire est faite ! Certains participants sont debout, à marteler leur opinion, d’autres se taisent pendant une heure. Certains avis sont flous, alors on demande des précisions.
Peu importe, tout ce qui est dit est noté, enregistré et vendu à grand prix. On a tous vu des dizaines et des douzaines et des centaines de focus groups rassembler des hordes de consommateurs anonymes, dans l’espoir affiché de leur tirer les vers du nez. Or, un focus group, ça n’a jamais été cela. En fait, pas avant que le marketing s’en mêle.
Nous sommes au début de la Deuxième Guerre mondiale, dans un contexte historique qui voit l’émergence des médias de masse, et qui favorise aussi la désinformation institutionnalisée. Les sociologues d’alors se penchent sur le sujet des dynamiques de groupe. Deux d’entre eux, l’Américain Robert Merton et l’Autrichien Paul Lazarsfeld, vont s’intéresser plus précisément à la question suivante : comment les attitudes et les opinions se forment-elles dans l’esprit des auditeurs d’émissions radiophoniques ?
Il faut s’arrêter quelques minutes sur cette époque. Nous sommes en 1932 et Lazarsfeld part pour les États-Unis muni d’une bourse Rockefeller qu’il avait obtenue grâce à son étude sur les chômeurs de Marienthal, en Autriche. Une fois sa mission terminée, il revient en Autriche. Dans le même temps, Hitler est élu dans l’Allemagne voisine (1933). En 1934, le Parti socialiste d’Autriche est déclaré illégal. La plupart des membres de sa famille sont arrêtés. Lazarsfeld perd son poste dans l’enseignement secondaire. Il ne conserve qu’une vague charge de cours à l’université de Vienne. Ramassant tout son courage — et ses derniers dollars —, il achète un billet de troisième classe pour les États-Unis. Grâce à la protection de Robert Lynd, l’auteur de Middletown — une étude sur la sociologie américaine —, il réussit à importer à Newark puis à New York le projet qu’il avait commencé à réaliser à Vienne : créer un institut de recherche où la psychologie serait appliquée à des problèmes économiques et sociaux.
C’est ici qu’il va pouvoir contribuer à la propagande antinazie auprès de la population américaine. Cela nous paraît évident aujourd’hui, mais cela l’était beaucoup moins à l’époque. Dans les années 1930, le sentiment antisémite régnait aux États-Unis. La Grande Dépression avait fait des ravages profonds dans l’économie et la société, et on se cherchait des boucs émissaires faciles. L’arrivée massive d’immigrants fuyant l’Europe, dans une conjoncture économique déjà difficile, n’a pas été très favorable à des conditions d’accueil optimales — et c’est un euphémisme. Dans l’Amérique d’alors, les Juifs étaient exclus de certains clubs, de certaines universités prestigieuses (Ivy League), de certaines fraternités étudiantes, de certains hôtels, ou encore de certaines plages. Il faudra attendre 1941 et la révélation des atrocités nazies pour que le regard de la société change. Voilà dans quel contexte Paul Lazarsfeld va pouvoir développer des outils d’observation sociologique puissants, dont nous avons (partiellement) hérité.
Leur première rencontre naît sous le signe de la passion. Monsieur et madame Lazarsfeld invitent monsieur et madame Merton à souper un soir de novembre 1941. Paul Lazarsfeld est le sociologue de la politique et des médias ; Robert Merton est le sociologue de l’entrevue individuelle. Les conversations vont bon train jusqu’à ce que Lazarsfeld fasse mention d’une recherche qui a lieu le soir même avec un groupe d’auditeurs de radio à propos du sentiment d’adhésion à l’armée américaine. N’y tenant plus, les deux sociologues quittent alors la table et partent rejoindre le groupe de recherche enfermé dans un studio radiophonique proche.
Plusieurs participants sont installés et un animateur dirige les échanges. Merton est fasciné par cette approche, mais, intérieurement, a de nombreux reproches à formuler à l’animateur. Il propose alors à Lazarsfeld de mener lui-même le prochain groupe avec ses propres méthodes d’entrevue individuelle.
Ce faisant, les deux intellectuels vont inventer non pas un, mais deux outils inséparables : le focus group et l’entretien individuel, ou focused interview. D’abord une discussion de groupe, ensuite des entretiens individuels pour chacun des participants. La discussion de groupe a pour objectif d’observer les interactions des gens entre eux. Les entrevues individuelles visent à laisser parler les interlocuteurs et leur demander un retour sur leur expérience. Et c’est le mariage de ces deux méthodes qui donne un résultat efficace. Voyons-les en détail.
Comme on le voit, on est loin des focus groups généralement admis en marketing, qui n’ont PAS LA FONCTION de recueillir le sentiment des participants devant leurs congénères, et qui n’ont AUCUNE UTILITÉ s’ils ne sont pas couplés avec des entretiens individuels de qualité, menés par des professionnels.
Je répète : un focus group n’a PAS LA VOCATION de faire « cracher le morceau » à des individus invités à un groupe de parole où chacun va raconter son petit truc. Le contexte social (parler devant des gens) biaise absolument TOUS les témoignages qui auront lieu dans ce contexte. Il a pour but d’observer les interactions des gens ENTRE EUX, sur un sujet défini.
Le rôle de l’entrevue individuelle — focused interview — est de recueillir les propos de CHAQUE participant, seul à seul, dans des conditions propices aux partages et à l’écoute.
Désolé pour les majuscules. C’est parce que d’habitude, je crie en parlant de tout ça. 😆
Quelques années plus tard, un autre mouvement — le béhaviorisme — va favoriser les aspects mécaniques du comportement humain et délaisser la sociologie de Lazarsfeld et Merton. Il faudra attendre plusieurs décennies pour redécouvrir les focus groups. Malheureusement, l’histoire va se charger de déformer la théorie d’origine, de la réduire à une simplification dommageable, et de changer son nom.
Fait cocasse, c’est justement Merton qui a théorisé cet effet de transmission du savoir par un phénomène qu’il a baptisé l’oblitération par incorporation : l’ancrage d’un savoir scientifique est indissociable de l’oubli de sa genèse. En clair, pour qu’un savoir se transmette, l’oubli de sa véritable origine est inévitable.
Depuis les années 1990, les chercheurs renouent avec cette interprétation originale et de nombreuses études ont été menées dans les règles de l’art pour faire la lumière sur des sujets sociologiques importants : le sida, la violence sexuelle, la biotechnologie, etc. Un véritable focus group veut donc observer les interactions des gens sur un sujet, et pas le sujet en lui-même. Par exemple : ce sujet crée un blocage chez les participants, celui-là crée des tensions de telle nature et des échanges vifs, cet autre sujet encore voit naître une influence manifeste de certains leaders d’opinion sur le groupe. Un focus group, c’est ça. Ça et rien d’autre.
Les sociologues insistent sur les problèmes éthiques d’un focus group mal mené, notamment pour des aspects psychologiques chez les participants (pensez à des sujets ultrasensibles qui pousseraient les participants dans leurs retranchements — violence, sexualité, tabous), ou d’ordre moral (pensez à un participant qui ferait de la désinformation : le groupe de discussion servirait alors de propagateur).
L’expérience et la rigueur de l’animateur sont donc fondamentales. C’est à lui ou à elle de s’assurer de la qualité méthodologique, de la composition du groupe, de la création d’un contexte favorable aux échanges, etc. Observer les participants, noter les silences, les doutes, les changements de comportement... tout cela va lui permettre d’en déduire des liens et des conclusions.
Recherches : Alex Vendetti et Margaux Francazal
Watchmen est un roman graphique publié en 1985 mettant en scène un groupe de superhéros atypiques. Ils évoluent dans un monde dystopique, où les menaces de la Troisième Guerre mondiale et de la bombe nucléaire sont omniprésentes. Voulant créer un monde sans conflits, où tous seraient solidaires, Adrian Veidt, alias Ozymandias, déclenche une immense explosion sur New York. Suite à l’incident, la population mondiale, apeurée, décide de jeter les armes et de se mobiliser.
Plusieurs diront que les moyens déployés sont démesurés, mais le fondement philosophique, lui, reste intéressant. Pour mieux le comprendre, il faut étudier deux personnages historiques qui ont fortement influencé Ozymandias, soit Alexandre le Grand et Ramsès II.
Une histoire en particulier capte l’essence d’Alexandre le Grand : celle du nœud gordien. Elle raconte l’arrivée du roi à Gordion, puisqu'il se retrouve face à un nœud indénouable, « sans commencement ni fin ». Selon la légende, la personne capable de le dénouer deviendrait le roi de l’empire d’Asie. Alors que tous ceux qui ont essayé avant lui ont échoué, Alexandre le Grand trouve une solution toute simple : il tranche le nœud d’un coup d’épée. C’est de cette façon, en posant des actions simples, mais radicales, qu’il a su bâtir un des plus vastes empires jamais connus de l’humanité. Mais à la suite de sa mort prématurée, son empire s’écroule.
Le pharaon Ramsès II (Ozymandias était d’ailleurs un de ses pseudonymes) est quant à lui devenu le symbole des empires déchus. Représenté dans deux poèmes du XIXe siècle, on raconte comment « le roi des rois » n’est plus aujourd’hui qu’une statue de pierre, ravagée par les sévisses du temps. Tous les grands empires, peu importe leur taille ou leur puissance, finissent par tomber.
Le même destin attend les entreprises, petites ou grandes. Quand les choses vont mal, quand on sent que l’empire s’écroule, que notre entreprise fonce dans le mur, que la situation semble « sans commencement ni fin », la solution pourrait sembler évidente : renvoyer du personnel, imposer de nouvelles réglementations, etc. On pense radicalement. On coupe le nœud. Mais cette solution n’aura d’effet qu’à court terme parce qu’elle n’a pas pour but d’unifier et de mobiliser.
Mais comment mobiliser un groupe de personnes qui semblent irréconciliables ? Selon Ozymandias, la seule façon d’y parvenir est de se battre contre la même chose pour atteindre le même but. C’est d’avoir un ennemi commun.
Cet ennemi ne doit pas être incarné : il faut que cette « menace » soit plus grande qu’un individu, qu’une organisation, ou même qu’un gouvernement. Elle doit avoir le potentiel de tous nous rallier, peu importe l’entreprise pour laquelle nous travaillons, nos allégeances politiques, notre religion, ou notre nationalité.
Par exemple, pour Volvo, l’ennemi commun n’est pas Kia, ou Volkswagen : ce sont les dangers de la route. C’est pourquoi, dans les années 50, l’entreprise a contribué à démocratiser la ceinture de sécurité dans les voitures, et qu’aujourd’hui, elle souhaite éliminer les morts et blessures graves impliquant leurs voitures grâce aux nouvelles technologies.
Mais, au contraire de Watchmen, il ne faut pas attendre que la situation soit avancée au point que la seule résolution possible soit l’explosion. Il ne faut pas attendre que le nœud soit indénouable. C’est à nous de trouver notre ennemi commun et de nous mobiliser pour créer un monde meilleur.
Le jeune philosophe est un pur-sang de la droite catholique française, maire-adjoint de Versailles et délégué à la Jeunesse et à l'Enseignement supérieur. Un esprit sain dans un corps sain de gendre parfait, de chemisette bien repassée de curé de paroisse potentiel. J'exagère à peine, puisque notre candidat est engagé contre l’avortement, contre l’adoption par des parents du même sexe, contre le mariage gay, contre l'immigration telle qu'elle est pratiquée en Europe, etc. Bref Bellamy n’a pas les atours du « candidat pour la modernité ».
Mais... je l'ai déjà dit (et peut-être déjà répété), un livre n'est pas un concours de beauté ou de popularité. J'aime lire des auteurs pour savoir comment il pensent avant de m'arrêter à ce qu'ils pensent. Dans ce cas précis, je ne pourrais pas être plus éloigné des idées politiques de Bellamy, et je déplore même qu'un esprit si habile soit au service d'idées si nauséabondes. Cela étant clarifié, Bellamy est un philosophe efficace, dans le sens où il apporte un regard interrogateur sur notre époque. Aussi, cet essai Demeure n'est pas politique le moins du monde... et il est passionnant.
Par ailleurs, si les opinions les tendances politiques du philosophe n'ont pas échappées aux critiques littéraires, tous reconnaissaient l'étanchéité entre le Bellamy-auteur et le Bellamy-politicien.
D'abord, Bellamy se défend d’être conservateur, et son essai contre « l’ère du mouvement perpétuel » est un exercice rhétorique finement mené, qui le rend difficile à identifier politiquement. C’est que cet esprit précoce ne dénonce pas le changement en soi. Il dénonce le changement sans but précis. Il accuse notre incapacité à nous « poser » et à définir ce qu’il appelle des points fixes — que nous appelions autrefois des valeurs, mais en politique les valeurs sont devenues l’argument des conservateurs, alors que le mouvement est celui de la modernité. Bref, Bellamy mérite toute notre attention pour proposer un contrepoids crédible à la panacée du changement, et à notre béatitude technologique.
“Je ne suis pas contre le progrès, bien au contraire. Mais l'erreur du moment est de penser que tout changement est un progrès”✱. Pour Bellamy, face à la transformation du monde par des outils technologiques que nous ne maîtrisons pas, face à la menace de la crise écologique, le rôle de la politique est peut-être de défendre des repères et donner du sens à ce monde.
Copernic et Galilée ont remis le monde en mouvement, le privant d’un coup de la stabilité rassurante d’un but à atteindre. Avant eux, il existait une fin, une ligne d'arrivée, un repos éternel. Depuis, tout est changement perpétuel, il n'y a plus de repère absolu — il n’est même plus certain que nous ayons à mourir un jour. Notre monde repose sur un socle où tout est remis en question dans ce que Bellamy appelle un progressisme sans destination. Il faut désormais définir des points fixes pour donner un sens.
Tout s’écoule, disait Parménide. Or, rappelle Bellamy, la rivière ne s’écoule que parce que la rive est immobile. Le mouvement ne vaut que s’il est observé d’un point fixe. C’est donc la fixité qui permet le mouvement. Au delà de la rhétorique abstraite, on peut s'interroger sur notre manque de destination. Nous allons tous quelque part. Nous y allons tous de plus en plus vite. Mais où allons-nous? « Où vas-tu Gilgamesh? » interrogeait le tout premier texte de notre civilisation.
C’est la question que nous nous posons depuis l’aube des temps. Quel est notre but? Dans quelle direction? La quête de sens porte bien son nom. Finalement, Bellamy veut sauver la possibilité du mouvement en fixant des repères, une destination, Il rappelle « qu’une chose est sûre : nous ne sortirons pas de la fascination du mouvement par l'éloge de l’immobilité », et propose « la sagesse du discernement ».
Aujourd'hui nous refusons la fixité. Nous voulons pouvoir négocier tout ce qui est. Nous ne supportons plus les limites spatiales, temporelles, biologiques. La technique nous a aidés à tout abolir. Nous voulons habiter sur Mars, voyager dans le temps, ou changer de sexe. Notre liberté ne supporte aucune dérogation. Le désir s’impose au déterminisme. Dès lors, l’idée (technophile) s’est imposée : si tout peut changer, alors tout doit changer. Oui, mais pour aller où? Mais où vas-tu Gilgamesh?
Et la famille est un point fixe fondamental pour Bellamy, qui précise ses positions sur la procréation. Sa rhétorique contre la procréation assistée mérite une écoute impartiale — quelle que soit notre idée personnelle sur le sujet, ce qui n'est pas évident. Bellamy y voit le signe d’un changement de paradigme dans le domaine de la santé, qui passe de l’humain réparé à l’humain augmenté, en répondant à un “désir que notre condition humaine ne satisfait pas”.
Il pose ainsi la question du rôle de la médecine : doit-elle répondre à tous nos besoins? Et cette question est parfaitement pertinente. Aujourd’hui personne ne peut contester l’utilité d’une couveuse pour sauver un prématuré ni le stimulateur cardiaque qui vient au secours de certains de nos aînés. Cette amélioration est un progrès indiscutable. Or, il s’agit bien ici d’une médecine d’optimisation, d’un corps augmenté par la technologie.
Pensez maintenant à la grossesse extra utérine demandée par certains groupes féministes de Californie pour une grossesse équitable — qui ne pénaliserait pas la mère — puisque la gestation se ferait totalement en dehors du corps. Au delà d’avoir été imaginée par Aldoux Huxley dans Le meilleur des mondes, l’ectogenèse est aujourd'hui une réalité, et les premiers tests ont été menés par Alan W. Flake et son équipe du Center for Fetal Research, de l'Hôpital pour enfant de Philadelphie. Des agneaux nés hors corps pour valider des recherches visant les humains. L'utérus artificiel, pour sauver de grands prématurés humains, ou pour éviter l'iniquité de la grossesse. Cette idée peut nous paraître choquante, farfelue ou immorale. Or, il ne s’agit que d’une question d'époque. Au milieu du XIXe on étouffait les enfants enragés entre des matelas✱. Au début du siècle dernier, on guérissait les femmes dépressives par la lobotomie, en perçant un trou dans leur crâne pour y prélever des morceau de cerveau (sans anesthésie, bien évidemment). Aujourd'hui nos grands-papas vivent avec des piles électriques dans le cœur, et demain nos mamans accoucheront extra utero.

Ce qui ressemble à un point fixe — la santé, la morale, la vie, la mort — est un repère mouvant, qui se déforme au gré des époques et des capacités scientifiques.
Notre définition contemporaine de la santé date de 1945. L’Organisation mondiale de la santé à imposé cette définition encore en vigueur aujourd'hui : la santé est un état de complet bien-être physique, mental et social. Jusqu’alors, la santé, c’était « le silence des organes » d'après la définition délicieuse de Paul Valéry. Et demain?
L'humain augmenté existe déjà. Celui d'aujourd'hui est une bénédiction. Celui de demain est une abomination. Simple question de timing.
Bellamy continue son réquisitoire en s'attaquant à l’économie, qui n’a bien évidemment pas échappé à cette fluidité — l’économie du stock et du patrimoine a laissé la place à l’économie du flux. La valeur d’échange a remplacé la valeur d’usage. Rien n’est plus fait pour être conservé, tout est fait pour être échangé — le plus souvent possible, le plus rapidement possible. Aujourd'hui les échanges boursiers se font à une vitesse d’une fraction de seconde, on préfère louer que posséder, rien n’est pensé pour durer.
Le travail aussi a changé. Autrefois il valorisait le métier, l’expérience, aujourd’hui il glorifie l’adaptabilité, la mobilité, la flexibilité. Tout le langage a changé. L’agilité a remplacé la sagesse. Et la « nouvelle économie » n’échappe pas à cet appétit du mouvement, entre les startups qui glorifient le démarrage — la mise en mouvement — et l’économie de partage, qui consiste à faire de l’argent avec ce qui était autrefois gratuit. L’hospitalité, l’autostop, le prêt d’outils. Le bon vieux coup de main est devenu une transaction. Jusqu’à La Poste française, qui facture désormais le petit bonjour du facteur à 19,90 € par mois pour cinq minutes par semaine. Mais où vas-tu Gilgamesh?
J'ai voulu faire le tour de la pensé de Bellamy, en la nourrissant d'exemples que j'ai pu moi-même pu observer. J'apprécie sa pensée des points fixes, du discernement et du jugement sur un avenir décidé. Je ne partage pas ses conclusions. Aucune d'elles. Bonne nouvelle, elles ne sont PAS l'objet de son essai — ce qui prouve que nous pouvons faire usage de sa réflexion et arriver à des destinations bien différentes. Alors je salue sa rhétorique, son courage et son bon sens, même si j'aurais préféré qu'il en fît un usage différent, au service d'une cause plus laïque et moins manipulée.
Je vous souhaite une lecture sage et dépassionnée de "Demeure", c'est un ouvrage riche, fort, et généreux.
Steven J. Spear et Gene Kim sont des experts reconnus dans les domaines de la gestion et de l’innovation organisationnelle. Steven J. Spear, professeur au MIT Sloan School of Management, est un spécialiste des systèmes complexes et du lean management. Il est notamment l’auteur de The High-Velocity Edge, un ouvrage qui explore comment certaines organisations réussissent à innover et à s’adapter plus rapidement que leurs concurrents. Gene Kim, quant à lui, est une figure centrale du mouvement DevOps. Il a co-écrit plusieurs livres influents dans ce domaine, dont The Phoenix Project et The Unicorn Project, qui mettent en lumière comment les pratiques technologiques modernes peuvent transformer les entreprises et accroître leur performance.
Leur nouvelle théorie repose sur trois concepts clés : la slowification, la simplification et l'amplification. Voyons comment on peut l'appliquer dans notre quotidien, dans un contexte imprévisible et complexe.
La "zone de danger", selon Spear et Kim, représente les situations où les organisations font face à une grande complexité, des facteurs interconnectés, et des décisions rapides avec des enjeux élevés. C’est un environnement où les problèmes sont difficiles à identifier car ils sont souvent cachés, et où l’absence d'itérations ou d'opportunités de correction conduit à des risques élevés d’échec catastrophique.
Par exemple, le scandale des émissions de Volkswagen en 2015 montre à quel point les entreprises peuvent tomber dans la zone de danger. La manipulation des tests d’émissions dans le but de répondre rapidement aux attentes réglementaires a impliqué de nombreuses parties prenantes dans un système très complexe. L’accélération sans itérations possibles a conduit à une crise qui a coûté à l’entreprise plusieurs milliards de dollars en amendes, en plus d’endommager gravement sa réputation mondiale. La zone de danger, ici, est caractérisée par des décisions rapides, mal pensées, sans possibilité de retour en arrière.

La simplification est la première clé pour sortir de la zone de danger. En rendant les processus plus compréhensibles et contrôlables, les leaders peuvent gérer la complexité de manière proactive. Simplifier signifie réduire le nombre de variables à surveiller et permettre aux équipes d’itérer sur leurs actions. Cela ne signifie pas éliminer la complexité, mais la rendre gérable.
Un exemple classique de simplification réussie se trouve dans l'industrie aéronautique. Airbus, lors du développement de l'A350, a fait face à des défis technologiques complexes avec un grand nombre de nouveaux matériaux et systèmes. En simplifiant les processus de fabrication, en segmentant le développement en phases itératives, et en adoptant des méthodologies agiles, Airbus a pu gérer les risques potentiels liés à la complexité. Résultat : une réduction des coûts et des délais, et un avion qui a su concurrencer efficacement Boeing. La simplification a permis de rendre visibles les problèmes et de les traiter avant qu'ils ne deviennent incontrôlables.
La slowification, un terme emprunté à Spear et Kim, propose une approche radicalement différente de la manière dont les entreprises affrontent la pression. Ralentir le rythme des décisions permet aux organisations de mieux comprendre leur environnement, d’explorer plusieurs options et de détecter plus facilement les problèmes sous-jacents.
Prenons l’exemple de Toyota, un pionnier du lean management. Toyota a intégré la slowification dans sa chaîne de production en instaurant le principe du "Jidoka", qui permet aux travailleurs d’arrêter la ligne de production en cas de problème. Ce ralentissement instantané permet d’identifier et de résoudre les problèmes au moment où ils se produisent, évitant ainsi des erreurs massives coûteuses en aval. En intégrant des mécanismes de slowification, Toyota a pu rester leader dans un secteur ultra compétitif et complexe tout en minimisant les risques.
Dans un autre domaine, Netflix a également utilisé la slowification pour sa stratégie de lancement de contenu. Plutôt que de suivre les modèles traditionnels de diffusion, l’entreprise a opté pour des tests itératifs à petite échelle, observant attentivement les comportements des utilisateurs avant de généraliser ses innovations. Cette stratégie a permis à Netflix d’éviter les investissements massifs dans des projets voués à l’échec, tout en ajustant en temps réel sa programmation et ses développements technologiques.
Enfin, l’amplification permet de maximiser les efforts et de faire grandir l’impact des décisions prises. Amplifier, dans ce contexte, signifie répéter ce qui fonctionne, augmenter la portée des initiatives positives, et s’assurer que les processus simplifiés et les retours issus de la slowification sont pleinement exploités.
Amazon est un bon exemple d'une entreprise ayant utilisé l’amplification pour son modèle logistique. En 2005, Amazon lance le programme Prime, une initiative qui repose sur la simplification du modèle de livraison avec une approche "slowifiée", permettant à l’entreprise de mieux contrôler ses flux logistiques. Après avoir testé le concept dans certaines régions et observé les résultats, Amazon a amplifié cette initiative à l’échelle mondiale. Ce modèle de livraison rapide a ensuite été étendu à de nouveaux services tels que la livraison de produits alimentaires avec Amazon Fresh.
Un autre exemple d’amplification réussie se trouve dans la stratégie de la société Tesla. En commençant par produire des véhicules électriques haut de gamme en faible volume avec la Model S, Tesla a lentement perfectionné sa technologie et ses processus de production. Une fois maîtrisés, Tesla a amplifié son impact en élargissant son offre à des modèles plus abordables comme la Model 3, augmentant ainsi son empreinte sur le marché mondial des véhicules électriques. Chaque étape de simplification et de slowification a permis une amplification massive des résultats sur les marchés internationaux.
Le passage de la zone de danger à la zone de succès n’est pas un processus instantané. Il nécessite de revoir la manière dont une organisation fait face aux pressions externes et aux complexités croissantes. En suivant une approche basée sur la simplification, la slowification et l’amplification, les organisations peuvent réduire les risques, améliorer leurs performances et minimiser les coûts d’échec.
Dans leur livre, Spear et Kim soulignent que ces principes ne s’appliquent pas uniquement aux grandes entreprises mais à toute organisation qui fait face à des défis complexes. En prenant des mesures pour ralentir le processus décisionnel, les leaders peuvent aider leurs équipes à mieux comprendre les problèmes, à itérer sur les solutions, et à amplifier les pratiques qui fonctionnent, menant ainsi à des environnements plus stables et prévisibles.