




SAAQclic devait coûter 638 millions de dollars. La facture dépasse aujourd'hui le milliard. Le système a été lancé en février 2023 alors que les tests n'étaient même pas terminés. Des concessionnaires ne pouvaient plus livrer de véhicules. Des citoyens ne pouvaient plus renouveler leur permis. La vérificatrice générale a été limpide : coûts trois fois plus élevés, tests non complétés, informations cachées au conseil d'administration. Et le nouveau système s'est révélé moins performant que l'ancien.
Un échec sur toute la ligne. Et pourtant, personne ne s'en étonne vraiment.
On reconnaît le scénario parce qu'on l'a déjà vu. En 2016, le gouvernement fédéral lançait Phénix, un système de paie censé remplacer d'un seul coup des dizaines de systèmes pour 309 millions de dollars. Neuf ans et quatre milliards plus tard, il reste 300 000 erreurs de paie non résolues. Le vérificateur général du Canada a qualifié le projet d'« échec incompréhensible ». Et le système s'est révélé moins efficace que celui de quarante ans qu'il venait remplacer.
Et si on sort de l'informatique, le pattern tient toujours. En santé, le Québec en est à sa quatrième restructuration majeure en vingt ans. Chaque fois, on refond les structures, on centralise, on fusionne. Chaque fois, les mêmes critiques reviennent. Santé Québec regroupe aujourd'hui 330 000 employés sous un seul employeur. Après un an, les syndicats parlent de « chaos ». Un responsable syndical résumait : « Ça fait des décennies qu'on répète les mêmes erreurs. Centraliser toujours plus et consulter toujours moins. »
Et ce n'est pas un phénomène québécois. Le privé international accumule les mêmes débris. Nike a investi 400 millions de dollars pour refondre sa chaîne d'approvisionnement d'un coup : 100 millions en ventes perdues, chute de 20 % de l'action en bourse, cinq ans supplémentaires pour remettre le système debout. Lidl, le géant allemand du rabais, a travaillé sept ans sur un système SAP à 580 millions de dollars pour remplacer ses 90 solutions internes par une seule — avant de tout abandonner et de revenir à l'ancien système. Hershey's a raté Halloween 1999 — 100 millions en commandes impossibles à traiter — parce que son nouveau système n'était pas prêt. Revlon n'arrivait plus à fabriquer ni à livrer ses produits après sa migration SAP. Haribo a vu ses tablettes vides et ses ventes chuter de 25 % pour les mêmes raisons. La U.S. Navy a dépensé un milliard de dollars en quatre tentatives de systèmes de paie, sans jamais réussir. Chaque fois, le même réflexe : on jette l'ancien, on conçoit du neuf, on déploie massivement. Chaque fois, le même résultat.
Bref, les virages à 90° vont droit dans le mur. Mais pourquoi donc?
En 1975, un pédiatre américain du nom de John Gall a publié General Systemantics: An Essay on How Systems Work, and Especially How They Fail. Refusé par trente éditeurs, auto-publié, puis réédité trois fois — la dernière sous le titre The Systems Bible. Au cœur du livre, une phrase devenue célèbre sous le nom de « loi de Gall » :
Un système complexe qui fonctionne s'est invariablement développé à partir d'un système simple qui fonctionnait. Un système complexe conçu à partir de zéro ne fonctionne jamais, et on ne peut pas le rafistoler pour qu'il fonctionne. Il faut recommencer avec un système simple qui marche.
Gall — qui était pédiatre, pas consultant en management — avait observé ce phénomène dans les hôpitaux, les administrations, les programmes gouvernementaux. Son exemple le plus savoureux : le hangar de préparation des fusées à Cap Canaveral est si grand qu'il génère son propre climat, incluant des nuages et de la pluie. La structure censée protéger les fusées les arrose.
Sa conclusion : les systèmes complexes ne peuvent pas être « fabriqués ». Ceux qui fonctionnent ont tous évolué à partir de quelque chose de simple qui tenait debout.
À la même époque où SAAQclic s'enfonçait, un autre projet d'État réussissait sous le radar. La SQDC a été mise sur pied en moins d'un an et fonctionnait dès le jour de la légalisation du cannabis en octobre 2018. Réseau de succursales opérationnel, site de vente en ligne fonctionnel, approvisionnement sécurisé. Jean-François Bergeron, responsable de la mise sur pied, a parlé d'un « tour de force ».
Comment ? En ne repartant pas de zéro.
La SQDC a été créée comme filiale de la SAQ. Même infrastructure logistique, même expertise en commerce de détail, mêmes réflexes opérationnels. On a greffé un nouveau mandat sur un système qui fonctionnait déjà. Simple d'abord : une vingtaine de succursales, une centaine de produits. Puis on a construit dessus.
Et la SAQ elle-même est un cas d'école. Quand Gaétan Frigon en prend la présidence en 1998, la société d'État souffre de ce qu'il appellera « la maladie du monopole ». Aucune croissance depuis dix ans. Des succursales fermées le dimanche dans des centres commerciaux où les trente autres commerces sont ouverts.
Frigon n'a pas commandé un grand plan stratégique à une firme de consultation. Il a fait le tour des succursales en Gaspésie, a compté les magasins ouverts le dimanche — trente sur trente et un, le seul fermé étant la SAQ — et il les a ouverts. Six cents emplois de plus. Le dimanche est devenu la deuxième journée de ventes en moins d'un an.
Puis il a enchaîné : circulaires, promotions, paiement par carte de crédit, trois bannières (Classique, Express, Sélection), transformation des vendeurs en « conseillers en vin ». Chaque geste simple, greffé sur ce qui fonctionnait déjà. En quatre ans, la SAQ est passée de hors palmarès à troisième entreprise la plus admirée des Québécois.
Son message aux troupes : « Si on veut que nos clients n'appellent pas à la privatisation, soyons les meilleurs. »
Le privé québécois connaît le même principe, même s'il ne cite pas Gall. Desjardins perdait 80 000 membres en cinq ans et traînait au huitième rang en satisfaction client parmi les institutions financières canadiennes. La réponse classique aurait été une refonte technologique massive. Desjardins a plutôt choisi vingt produits prioritaires — ouverture de compte, carte de crédit, renouvellement hypothécaire — et les a numérisés un par un. Cinq ans plus tard : les ventes en ligne sont passées de 25 % à 40 %, quatorze points devant la moyenne canadienne, et le NPS a bondi de onze points. Du huitième rang au deuxième. Nathalie Larue, première vice-présidente, résume l'approche : « Ne jamais isoler le chantier numérique. »
Couche-Tard a suivi la même logique pendant quarante ans. Un seul dépanneur à Laval en 1980. Puis des acquisitions ciblées, digérées une à une — d'abord au Québec, puis au Canada, puis aux États-Unis, puis en Scandinavie, puis en Asie. Chaque marché absorbé avant de passer au suivant. Aujourd'hui : 16 700 magasins dans 27 pays, l'action multipliée par mille. Alain Bouchard n'a jamais tenté de devenir un géant mondial d'un seul coup. Il a construit sur ce qui marchait, encore et encore.
Et Bombardier est peut-être l'exemple le plus spectaculaire. En 2020, l'entreprise frôlait l'écrasement : endettement massif, divisions vendues les unes après les autres, flux de trésorerie négatifs. Éric Martel a pris les commandes avec un plan de redressement sur cinq ans — pas une refonte totale, mais un recentrage progressif : aviation d'affaires d'abord, puis services après-vente, puis défense. Chaque étape construite sur la précédente. En 2025, Bombardier a dépassé tous les objectifs de son plan : 9,55 milliards de revenus, cinquième année consécutive de croissance, un carnet de commandes de 17,5 milliards. Le cas fait désormais l'objet d'études à Harvard et à Columbia. Martel résume : « Nous avons transformé l'entreprise. » Mais il l'a fait morceau par morceau.
La loi de Gall est contre-intuitive pour quiconque vend de la transformation. L'ambition dit : « On voit le problème, on a les ressources, on y va. » La loi de Gall répond : « Plus vous concevez grand d'emblée, plus vous avez de chances d'échouer. »
C'est un problème pour les grandes firmes de consultation, dont le modèle d'affaires repose sur la refonte totale. On diagnostique, on recommande un plan en 200 diapositives, on facture des millions, et on laisse le client avec un système complexe conçu à partir de zéro. Exactement ce que Gall dit de ne jamais faire.
Les organisations qui changent vraiment commencent plus petit que ce qui semble confortable. Une habitude. Une réunion. Une décision qui tient. Puis elles construisent dessus. Non pas parce qu'elles manquent d'ambition — mais parce qu'un système qui fonctionne gagne le droit de grandir. Un système qui ne fonctionne pas s'effondre sous son propre poids.
La question que Gall poserait à n'importe quel comité de direction : Quelle est la version la plus simple du changement que vous essayez de faire ?
Si la réponse prend plus de deux phrases, c'est qu'on n'a pas encore trouvé le système simple.
Selon la loi de Gall, tout système complexe efficace naît d’un système simple qui fonctionnait déjà ; les échecs de SAAQclic et Phénix rappellent qu’en créer un de toutes pièces est voué à l’échec. La clé d'une transformation réussie réside dans la séquence : avant de bâtir, il faut identifier ce qui marche vraiment par l'observation directe du terrain plutôt que par les tableaux de bord. En négligeant cette approche ethnographique, on construit sur des théories fragiles plutôt que sur la réalité opérationnelle. Pour transformer durablement, ne vous fiez pas aux organigrammes : allez voir, écoutez, et évoluez à partir du réel.
SAAQclic
Phénix
Santé Québec et réformes en santé
Échecs ERP internationaux (Nike, Lidl, Hershey's, Revlon, Haribo, U.S. Navy)
Loi de Gall / John Gall
SQDC
SAQ sous Gaétan Frigon
Desjardins
Couche-Tard
Bombardier
Hamdi Ulukaya, c'est l'histoire improbable d'un berger kurde devenu magnat du yogourt aux États-Unis. Né dans une famille d'éleveurs dans l'est de la Turquie, il grandit au rythme des troupeaux et du lait de brebis. En 1994, il quitte son pays pour étudier l'anglais aux États-Unis, avec très peu d'argent en poche. Rapidement, il commence à importer du fromage feta pour combler un manque sur le marché américain. Mais c'est en 2005 qu'il fait un pari insensé : racheter une vieille usine de yogourt fermée par Kraft dans l'État de New York. Il l'appelle Chobani, mot turc qui signifie « berger ».
Contre toute attente, son yogourt grec séduit instantanément. À contre-courant des pratiques industrielles, Ulukaya mise sur des ingrédients simples, une éthique de production irréprochable et une culture d'entreprise profondément humaine. En quelques années, Chobani devient le leader du marché du yogourt grec aux États-Unis, bouleversant les géants de l'agroalimentaire. Ulukaya redistribue les cartes : il offre des parts de son entreprise à ses employés et embauche massivement des réfugiés, convaincu que les affaires peuvent être un levier d'inclusion sociale.
Aujourd'hui, il incarne une vision audacieuse du capitalisme — un modèle où la croissance économique ne se fait pas au détriment de la dignité humaine. On le cite souvent comme exemple de « CEO activiste », et son « anti-CEO playbook » fait le tour des écoles de commerce. Ce qui frappe, ce n'est pas seulement son succès, mais sa conviction inébranlable que l'empathie et la justice peuvent — et doivent — guider les décisions d'affaires.
On peut tirer une autre leçon de son parcours : ne jamais négliger ceux qui vous aiment déjà. Contrairement à la stratégie classique de chercher constamment à attirer de nouveaux clients, Ulukaya a compris que les vrais champions de la croissance se trouvent souvent parmi ceux qui croient déjà en votre produit.
Mais pourquoi est-ce si important ? D'abord, les clients fidèles ne sont pas simplement des consommateurs, ils sont des ambassadeurs. Ce sont eux qui parlent de la marque à leurs amis, partagent des publications sur les réseaux sociaux, et recommandent le produit à leur entourage. Ulukaya l'a bien compris : ces clients sont souvent une source inestimable de marketing gratuit.
L'exemple Chobani est frappant. Dès le début, la marque a misé sur une expérience client exceptionnelle. Cela ne se limitait pas à la qualité des yogourts, mais s'étendait aussi à une réactivité impressionnante sur les réseaux sociaux, et à une véritable capacité à écouter et agir en fonction des retours clients.
Cette idée que la fidélité est payante n'est pas nouvelle, aussi les études pullulent à ce sujet. Voici quelques données en vrac :
La stratégie de Chobani n'est pas seulement une question de fidélité, elle est aussi alignée sur un principe fondamental de l'expérience client moderne : l'authenticité. Les consommateurs d'aujourd'hui sont plus connectés et informés que jamais. Ils exigent des marques qu'elles s'engagent sincèrement envers leurs besoins, mais aussi envers des valeurs plus larges, telles que la durabilité, l'inclusivité et la transparence.
Pour Ulukaya, prendre soin des clients fidèles ne signifie pas simplement répondre à leurs demandes immédiates. Cela veut dire comprendre profondément leurs valeurs et leurs attentes. Chobani a intégré des initiatives sociales, comme sa mission de soutien aux réfugiés, ce qui résonne fortement avec sa base de clients engagés, qui apprécient non seulement le produit, mais aussi ce que la marque représente.
Hamdi Ulukaya n'a pas grandi avec des modèles de management d'entreprise. Immigrant d'origine kurde, il a créé Chobani avec peu de ressources, mais avec une vision claire : redéfinir l'industrie des produits laitiers. Cette vision était nourrie par une conviction que beaucoup d'entrepreneurs oublient : la croissance durable ne repose pas uniquement sur l'expansion, mais sur la satisfaction profonde de ceux qui sont déjà à bord.
Cette approche "client first" n'a cessé de se renforcer au fil des années. Chobani, au lieu de s'éparpiller dans de multiples lancements ou dans la poursuite d'opérations spectaculaires pour attirer de nouveaux clients, a perfectionné ses gammes, amélioré la qualité des produits, et travaillé à établir une relation émotionnelle avec ses consommateurs.
Ce choix stratégique s'est avéré payant. Au lieu d'avoir des campagnes marketing massives visant à attirer des masses, Chobani a misé sur des actions ciblées, notamment en investissant dans des campagnes locales, et en créant un lien de proximité avec ses consommateurs. Les actions simples, comme répondre aux messages clients ou offrir des échantillons gratuits aux fidèles, ont forgé une marque presque indéboulonnable.
Je vous laisse juger avec quelques faits saillants :
Il suffit de regarder une courbe démographique pour comprendre l’incroyable simplicité des enjeux qui nous attendent. Rien de tel qu'une illustration graphique pour expliquer le problème. Bien évidemment, tout dépend de votre industrie, de votre produit ou de votre offre, mais l'idée est simplement d'imaginer l'avenir ensemble.




Côté client, les baby-boomers ne travaillent plus, mais ils vivent encore. Ils ne sont plus vos employés, mais ils sont restés vos clients. Il y a donc toujours autant de clients à servir, avec un marché du travail plus restreint.
Côté employés, il y a mécaniquement moins de candidats potentiels, et les expertises nécessaires pour travailler chez vous sont les mêmes que chez Google, GSoft ou Element AI. Résultat : un candidat peut choisir son employeur dans une infinité d’industries... ici ou ailleurs.
Bref, l’enjeu des 10 prochaines années n’est pas de trouver plus de clients. Il est de trouver les employés qui serviront les clients que vous avez déjà. Vous n'avez pas de défi de croissance. Vous avez un défi de bienveillance. Voici trois pistes de réflexion pour vous préparer, et inventer votre propre expérience-employé.
L’intelligence artificielle est devenue une ombre qui plane au-dessus de nos emplois. Or, c'est encore un fantôme bien peu crédible face à l’incroyable capacité de réflexion des humains. Des études récentes commencent à nous rassurer : les échecs cuisants et coûteux rendent les professionnels plus prudents quant aux prévisions alarmistes des emplois détruits par l’IA. Une forme d'intelligence domine : l'automatisation. Elle représente 70% des projets d'intelligence artificielle aujourd’hui. L'idée n’est pas de supprimer des emplois, mais de supprimer les tâches stupides dans nos emplois. Et si notre temps était consacré à plus de réflexion inductive (la plus grande qualité de l’humain) et moins de réflexion déductive (sans valeur, répétitive, ennuyeuse)?
Les connaissances doublent à vitesse exponentielle. En médecine par exemple, la connaissance collective double tous les 73 jours alors qu'il faut dix ans pour former un médecin. Il est alors impensable de croire qu’un employé chez vous a terminé son apprentissage. Ce qu'il n'apprendra pas chez vous, il voudra l’apprendre ailleurs... chez votre concurrent s'il le faut. Vous devez devenir une école et vos gestionnaires, des professeurs. Vous devez offrir une structure pour préparer vos employés à demain de manière constante. Et vous devez choisir des gestionnaires capables d’instruire et inspirer les troupes.
Les startups (devenues des multinationales) ont donné une vision simplifiée des désirs des jeunes générations. Tables de babyfoot, vacances infinies, chefs cuisiniers... au-delà de la poudre aux yeux, revenez à certains fondamentaux. Un jeune employé chez vous va aussi (et surtout) rechercher une certaine sécurité d'emploi. Mariage, condo, projets... la vie d’un jeune couple en 2019 n’est pas très différente d'il y a 30 ans. Aussi, pensez aux sujets de société qui ne peuvent plus être traités comme des valeurs sociétales, mais bel et bien comme des questions de survie, comme le développement durable, la responsabilité sociale ou l'éthique.
C'est à Richard Buckminster Fuller que nous devons la théorie de la Knowledge Doubling Curve, une prédiction dictée en 1980 et qui se vérifie aujourd'hui.
Bucky était le mauvais garçon de la Silicon Valley. Plusieurs fois viré de Harvard, il est devenu une inspiration pour le mouvement cybernétique et un gourou pour la communauté technologique naissante des années 60. Véritable touche-à-tout, architecte, designer, inventeur fou et futurologue, il est le papa de la biosphère de Montréal, et celui d'une théorie : la connaissance collective est exponentielle.
Cette théorie a peu été relayée par les universitaires de l’époque, mais tout s’explique par la réputation académique de Bucky. Or, aujourd’hui, elle résonne comme une véritable prédiction. L’idée : la connaissance collective à vitesse exponentielle. Attention, pas l’intelligence collective, la connaissance collective !

Il fallait 100 ans pour que la connaissance collective double en 1900.
Il fallait 25 ans pour que la connaissance collective double au milieu du siècle dernier.
Il fallait 13 mois pour que la connaissance collective double en 2016.
IBM a même poursuivi ces projections et annonce que le savoir doublera toutes les... douze heures, en 2036.
Pensez au corpus de connaissances de la médecine De Humani Corporis Fabrica (sur la structure du corps humain), qui fut l’œuvre majeure d’André Vésale, et véritable référence pour tous les scientifiques du xvie siècle. Tout était là. Toute la connaissance de la médecine rassemblée dans une seule œuvre publiée en 1543. Ce fut un tournant dans l’histoire de la médecine et de l’étude de l’anatomie humaine. Cet ouvrage était si imposant qu’il est souvent confondu avec une encyclopédie en raison de sa vaste couverture du sujet et de sa contribution fondamentale à la compréhension du corps humain. Tout le savoir de l’humanité sur l’humain ! Bon, eh bien De Humani Corporis Fabrica comptait 659 pages illustrées. Imaginez, en moins de 700 pages, on savait tout sur tout, sur la médecine du xvie siècle. Imaginez maintenant le volume de connaissances que nous avons sur le corps humain aujourd’hui !
Ou pensez encore à l’effervescence des sciences après la Deuxième Guerre mondiale, en partie produite par la fuite des cerveaux d’Europe centrale vers les universités américaines après l’élection d’Hitler en 1933. Tous les grands campus américains ont hérité de ces exilés allemands, autrichiens, hongrois, polonais expulsés par le régime nazi — notamment grâce à la fondation Rockefeller. Cette dernière mit en place un fonds d’aide spéciale pour les chercheurs destitués (Aid Fund for Deposed Scholars) destiné à financer des universitaires et intellectuels européens contraints de fuir le nazisme. Entre 1933 et 1942, ce programme permit d’aider plusieurs centaines d’intellectuels à trouver refuge sur des campus américains. Sans faire d’angélisme — l’accueil des chercheurs juifs était tout de même timide : il suffit de s’intéresser au parcours d’Einstein pour s’en convaincre —, ces années furent fructueuses sur le plan scientifique.
Les disciplines se croisèrent, les savoirs s’entrechoquèrent, et de nouveaux modes de pensée ont émergé de ces mélanges. C’est la naissance de la hiérarchie des besoins et des motivations de Maslow, c’est le début du design thinking, des focus groups, de l’informatique de Von Neumann en 1945, et bientôt de l’intelligence artificielle en 1955, avec la fine équipe de Dartmouth.
Ces inventions, combinées, ont accéléré davantage la production de connaissances, liée depuis à la puissance des ordinateurs. Depuis l’invention de l’ordinateur, la recherche est liée à la puissance des microprocesseurs, avec une loi bien connue (et parfois contestée), la loi de Moore. Gordon Moore était un des cofondateurs d’Intel, et un des papas du microprocesseur. Sa loi n’est pas tant une loi physique qu’une observation empirique, mais elle a fait foi pendant des décennies. Voilà ce qu’elle dit : à coût constant, la vitesse des microprocesseurs double tous les 18 mois. Une prédiction de 1965 — que Buckminster Fuller avait anticipée plusieurs années auparavant — restée vraie jusqu’en 2015, la physique imposant des barrières naturelles à la progression de cette vitesse. Moore avait lui-même prévu la limite de sa propre loi. Une limite physique insurmontable, puisqu’en dessous d’une échelle nanométrique (sous 10 nm), il devient difficile de miniaturiser davantage les microprocesseurs sans faire face à des problèmes complexes : effets quantiques, dissipation thermique, limitations de la lithographie, etc. Dès lors, il a été plus facile de multiplier les processeurs que de miniaturiser les microprocesseurs.
C’était sans compter le génie des équipes de Jensen Huang, grand patron de NVIDIA. En 2019, il déclare la mort de la loi de Moore et qu’il faudra désormais compter sur d’autres types de technologie… Optimisation des architectures, parallélisation des cœurs de processeurs et spécialisation des microprocesseurs (notamment les GPU) ont révolutionné l’approche de l’informatique matérielle. L’accélération des ordinateurs est redevenue possible, accélérant encore et encore la production de connaissances.
Aujourd’hui, les chercheurs ne cherchent plus. Ils ont produit des IA capables de chercher à leur place, donc de plus en plus vite. Par exemple, cette IA nommée M3GNet, développée par l’Université de Californie, a « inventé » une base de données de plus de 31 millions de nouveaux matériaux inexistants, en prédisant également leurs propriétés. Grâce à M3GNet, l’humanité découvre de nouveaux matériaux à une vitesse totalement inédite, vertigineuse.

Alors ? Buckminster était-il fou de considérer que la connaissance allait grandir à une vitesse exponentielle ? Au-delà de notre ressenti, quelle preuve tangible peut-on produire pour montrer le bien-fondé de son intuition ? La réponse est arrivée chez Perrier Jablonski au détour d’un mandat, pour lequel nous avions à creuser le sujet. Nous sommes tombés sur une étude édifiante, celle de l’American Clinical and Climatological Association, publiée en 2011.
Cette étude voulait alerter l’administration Obama sur les défis de la formation des médecins, dans un monde où la connaissance grandit si vite. Et le rapport donne des chiffres. Évidemment, ces chiffres sont faciles à obtenir à une époque où tout se compte (brevets, recherches, mémoires, etc.). Les voici.
Il fallait 50 ans pour que la connaissance médicale double en 1950, 7 ans en 1980, 3 ans et demi en 2010... et... 73 jours en 2020. Un étudiant qui a commencé ses études de médecine en 2010 est devenu médecin en 2017. Dans ce même laps de temps, la connaissance médicale a doublé trois fois.
Si vous pensiez que le monde allait certainement ralentir un jour, j’ai une réponse pour vous. Enfin, pas moi, mais le président de Google, Sundar Pichai, qui annonçait en 2019 les premiers tests du premier processeur quantique, le Sycamore 54-qubit. Sycamore a réalisé un calcul complexe en 3 minutes et 20 secondes... alors qu’il faudrait 10 000 ans aux meilleurs super calculateurs du marché. Bien évidemment, il s’agit d’un test réalisé dans des conditions impossibles à reproduire dans le quotidien... Mais ce n’est qu’une question de temps.
Trois minutes contre 10 000 ans. Non, l’accélération n’est pas prête de ralentir...

E, S, G, trois lettres qui en disent long! À l'image d'Arthos, Portos et Aramis, l'Environnement, la dimension Sociale et la bonne Gouvernance forment le trio inséparable de la gestion responsable. Si vous aussi, comme d'Artagan, vous cherchez à les rejoindre dans leur aventure, voici ce qu'il faut savoir.
D'abord, il faut garder en tête qu'il existe autant de façons d'appliquer la gestion responsable qu'il existe d'entreprises. C'est que les critères sont assez vastes, et souvent ne s'appliquent pas de manière uniforme à toutes les entreprises. Prenons néanmoins ici l'exemple de l'entreprise Cascades, cheffe de file en matière de gestion ESG au Québec.
D'abord, le facteur Environnemental analyse la consommation d'énergie, la gestion des déchets, la prévention des risques environnementaux, la pollution produite et le respect de la vie animale… pour ne nommer que ceux-là ! Cascades est par exemple engagée depuis bon nombre d'années dans l'économie circulaire, s'approvisionnant autant en plastique qu'en papiers recyclés (ou provenant de forêts gérées de manière durable).
Le facteur Social quant à lui se rapporte plus aux conditions de travail et à la santé des équipes, de même qu'à leur épanouissement. On pense donc oui à tout ce qui se rapporte à la santé et à la sécurité au travail, mais aussi aux valeurs de diversité, d'équité et d'inclusion de l'entreprise. Par exemple, Cascades se distingue par son implication dans les causes de santé mentale, en plus d'initiatives d'inclusion telles que les rendez-vous Femmes et Machine ou la création d'uniformes aux couleurs de la Fierté.
Enfin, le critère de Gouvernance s'attache à rendre compte des bonnes pratiques de gouvernance d'une entreprise en termes de transparence dans sa méthodologie comptable et d'indépendance du conseil d'administration. Est-ce que des mesures minimales ont été appliquées afin d'éviter les conflits d'intérêts ? On évalue ici la qualité et la structure de la gestion de l'entreprise. Qui dit évaluation, dit transparence, et c'est justement par sa conformation aux normes du Sustainability Accounting Standards Board (SASB) que Cascades parvient à s'en assurer.
Malgré des exemples fort comme Cascades ou encore Patagonia, les différents acteurs du milieu des affaires ont longtemps hésité : quels sont les bénéfices concrets de la gestion ESG ? N'est-elle pas, par définition, limitative, en plus d'être compliquée et coûteuse à mettre en place ?
Sur ce point, le mythe est tenace : ce type de gestion serait rarement rentable. Ulrich Atz, économiste et chercheur à la Stern School of Business de l'Université de New York, a travaillé à déboulonner cette préconception en compilant plus d'un millier de données officielles. Il est parvenu à démontrer que, statistiquement, les entreprises appliquant une gestion ESG peuvent être aussi performantes, voire même plus performantes, que leurs congénères à la gestion plus traditionnelle, surtout à long terme, ou lorsqu'elles misent sur les stratégies E à bas carbone. D'autre part, les entreprises qui ont une gestion responsable s'en tireraient mieux sur le plan financier lors d'une crise économique ou sociale. Analysant les fluctuations du marché boursier, l'étude démontre ainsi qu'au moment de la crise financière de 2007-2009, les entreprises appliquant une gestion durable ont mieux performé et se sont redressées plus rapidement après la crise.
Mais les performances financières ne sont que la pointe de l'iceberg. Prenons par exemple la certification B-Corp, qui regroupe le fleuron des entreprises certifiées favorisant l'inclusion sociale et la défense de l'environnement au Québec. Dans les critères de cette certification, il y est notamment compris que les différents fournisseurs et sous-traitants d'une entreprise certifiée B-Corp doivent eux aussi… être gérés de manière responsable. Vous nous voyez venir ? L'adoption par une part de plus en plus grande du marché de normes responsables crée tranquillement un cercle vertueux de la gestion responsable. Ainsi, adopter de telles pratiques permet désormais d'augmenter l'attractivité de son entreprise, non seulement auprès des consommateurs, mais également auprès de potentiels partenaires d'affaires.
Vous vous en doutez sûrement, cette tendance dépasse largement le Québec. À l'échelle mondiale, une pression s'exerce sur tous les acteurs du milieu des affaires pour atteindre des cibles de plus en plus ambitieuses en matière de gestion responsable, tout particulièrement sur le plan environnemental. Notamment, l'investissement responsable connaît une forte hausse de popularité, offrant des opportunités uniques aux entreprises appliquant les normes ESG.
Par exemple, en Europe, à compter du 1er janvier 2024, la nouvelle directive CSRD (Corporate Sustainability Reporting Directive) exigera des entreprises qu'elles dévoilent le contenu de leurs informations extrafinancières pour permettre aux investisseurs de prendre les décisions les plus éclairées. Le texte de loi s'appliquera également aux entreprises non européennes (de taille significative) présentes sur le marché interne européen.
Plus proche de chez nous, la Fondation IFRS, bien connue des marchés financiers, a officialisé lors de la COP26 la création d'une antenne de l'International Sustainability Standards Board (ISSB) à Montréal (le siège social est en Allemagne). Leur implantation au Québec, une première en Amérique du Nord, renforce ainsi la place de leader du Québec en matière d'investissement responsable. C'est grâce à de telles initiatives que peu à peu, on observe une transformation profonde du monde de la finance et du modèle d'affaires des entreprises.
Le pathologiste est seul avec l’illustre dépouille… et il va prendre une décision totalement folle : voler le cerveau d’Einstein. Dans le plus grand secret, il va diviser l’organe en 240 morceaux qu’il va envoyer à ses confrères pour tenter de comprendre les raisons biologiques de l’intelligence d’Albert… En vain. Il faudra attendre 20 ans pour que l’affaire soit révélée par Steven Levy, un jeune journaliste du New Jersey Monthly. Le cerveau est alors « reconstitué », mais il faudra encore attendre que les techniques évoluent pour comprendre réellement le fonctionnement du génie. L’anthropologue Dean Falk a livré un résumé étonnant que nous allons tenter de comprendre à notre manière…

Non… le cerveau d’Einstein n’était pas plus gros que le vôtre. Au contraire : il pesait 1230 grammes (contre 1350 pour un homme de son âge, à cette époque). 9 % de moins, donc. Or, il avait 17 % plus de neurones. Pas plus de matière grise, non… mais plus de matière blanche. Matière blanche?

Dans le cerveau d’Einstein, le corps calleux était beaucoup plus volumineux que la moyenne. Cette partie est le système central de votre cerveau. Un super réseau de 200 millions de fibres nerveuses qui relient les différentes parties du cerveau entre elles. Ce réseau, c’est la matière blanche. Chez Einstein, ces terminaisons étaient très épaisses et assuraient un transfert très efficace entre les différentes zones de son cerveau. C’est donc le transfert d’information qui compte. Einstein n’avait pas plus de matière grise : il avait plus de matière blanche! Voyons quelles zones étaient irriguées par ces informations, et pour quel bénéfice…

Le lobe pariétal est le siège des sens (vision, touché, audition…), mais il est aussi responsable de la compréhension et de l’organisation de la mémoire. Le sur-développement du lobe pariétal est assez courant chez les mathématiciens et les scientifiques, mais celui d’Einstein était 20 % plus gros que la moyenne de ses contemporains.

Dans le cerveau d’Einstein, il existait une inclinaison particulière du sillon latéral, ce qui augmenterait la taille de la zone du raisonnement abstrait au détriment de la zone du langage. D’ailleurs, interrogé par le mathématicien Jacques Hadamard sur le rôle du langage en 1943, Einstein avait répondu que ses idées lui venaient plutôt de manière visuelle et que le langage ne jouait aucun rôle dans son processus créatif.

Le cortex préfrontal est le siège des fonctions exécutives qui (pour simplifier) nous guident pour nous aider à faire ce qui doit être fait. Il guide les actions pratico-pratiques. Celui d’Einstein était particulièrement développé.
Ce n'est pas la première fois qu'on vole le cerveau d'un génie. C'est en 1888 que le consul d'Espagne demande le rapatriement du corps du peintre Goya — alors enterré à Bordeau — à Madrid. Stupeur... On découvre alors que la tête du génie a disparu. On découvre alors que c'est l'anatomiste Gaubric qui aura décapité le Maître avant de l'enterrer, avec la bénédiction de la veuve. Il faut aussi savoir que la phrénologie passionnait les scientifiques de l'époque : on pensait alors que les formes du cerveau en disaient beaucoup sur la personnalité, les humeurs, et le génie des humains.
—