En 1881, George Eastman fonde Kodak Eastman. La société veut s'attaquer à la fragilité des plaques de verre servant à la photographie. En 1888, John Carbutt invente un système plus résistant à base de nitrate de cellulose. George offre ensuite le produit au public et aux amateurs de photographie. Leur slogan, « You press the button, and we do the rest », démontrait la facilité d’utilisation et la simplicité de leurs appareils.
En 1976, la société était considérée comme la plus grande de l’industrie. Kodak vendait 85% des appareils photo et 90% des pellicules photographiques. Les films étaient leur produit le plus vendu sur le marché.
Un an plus tôt, Steven Sasson, ingénieur chez Kodak, invente l’appareil photo numérique. La vente de pellicule lui rapportant assez, la compagnie déploie peu d’efforts à la commercialisation de cette nouvelle technologie.
Durant les années 1990, la technologie numérique commence à être développée par ses concurrents comme Fuji, Canon ou Nikon. Ils comprennent l’urgence d’innover au niveau de leurs produits et offrent des appareils issus de la dernière technologie aux consommateurs. Tout cela, en prenant conscience du marché de l’époque. Une avancée difficile à rattraper pour Kodak.
En 2001, pensant s’adapter à l’industrie, l’entreprise achetait Ofoto, un site Internet permettant de partager des photos. Une trouvaille faite juste avant l’arrivée de Facebook. Contrairement au géant américain, Kodak s’en est servi pour inciter les utilisateurs à y imprimer leurs photos. Ils ont manqué une opportunité, qui aurait pu tout changer, de si près… La fin de l'histoire ? La faillite de Kodak en 2012.
Mais pourquoi laisser passer une telle opportunité ? D’après le Harvard Business Review, on pourrait considérer ça comme de la myopie optimiste, c’est-à-dire de se concentrer sur une perspective optimiste et en oublier le futur. Autrement dit, une personne pourrait se concentrer sur certains aspects positifs d’une situation, mais « ignore » toutes les embûches potentielles.¹ Dans le cas de Kodak, aveuglée par son succès, la société avait complètement négligé l’arrivée de la technologie numérique… et il était trop tard.
Rappelons que le modèle numérique de Steve Sasson (ingénieur pour Kodak) existait déjà, mais la firme n’avait pas pris le temps de le développer plus que cela. Kodak a préféré se concentrer sur le succès de ses pellicules, au lieu de commercialiser la simplicité du numérique.
Bref, comme on dit chez Perrier Jablonski, vous n'êtes pas obligé de changer, mais vous n'êtes pas obligé de survivre. Si vous ne pensez pas à ce qui tuera votre entreprise, quelqu'un d'autre le fera. Restez allumés. Soyez ouverts. Restez innovateurs. Soyez prêts à réagir au changement.
Nous l'avons vu dans un précédent article, les nudges — coups de pouce — sont un moyen puissant de contrôle du comportement des humains. Ça paraît gros dit comme ça, mais c'est tout petit, au contraire. Un nudge est une incitation au passage à l'acte quasiment imperceptible, et qui repose sur une prémisse universelle : les humains sont paresseux.
L'idée de Thaler et Sunstein (les papas des nudges), c'est qu'il est préférable d'aider l'usager à prendre la bonne décision — éthiquement, c'est aussi la décision que ce dernier aurait prise sans nous, mais il a besoin d'un coup de pouce pour se lancer. Nous avons vu qu'il existait plusieurs types de nudges et qu'ils étaient souvent utilisés dans la santé, dans les services publics, mais aussi en économie (dans les services bancaires, les levées de fonds, etc.) Bref, aucun domaine n'échappe aux nudges. Pourquoi un tel succès? Parce que la plupart du temps, un nudge ne coûte (presque) rien. Tester un nudge est donc peu risqué et très tentant... Il était donc tout naturel que la politique s'empare de cet outil tactique puissant.
L'utilisation des nudges en politique est un terrain éthique miné, qu'il s'agit d'observer avec un regard critique. Un article du Guardian signé Andrew Sparrow➊ sur le conservateur David Cameron, architecte conservateur du Brexit — et de la crise économique traversée par la Grande-Bretagne depuis — a révélé l'importance des nudges dans les décisions politiques. En quelques définitions (parfois un peu cyniques), Sparrow récapitule le travail de Thaler et Sunstein en se lançant dans un exercice que je n'ai pas hésité à personnaliser.
Parce que les mécanismes des nudges peuvent vous aider à comprendre bien des choses en matière de psychologie comportementale. Associé à l'économie, cette discipline s'appelle l'économie comportementale. Elle est riche d'enseignement et évite les raccourcis souvent pris par les organisations, qui se terminent en voie sans issue. Normal : l'humain est complexe... mais passionnant. Cela va vous aider à mieux comprendre la complexité de vos employés, de vos clients, des citoyens de votre municipalité ou de votre province. Mieux comprendre la mécanique de ces coups de pouce, c'est vous préparer à être de meilleurs stratèges du changement.
Daniel Kahneman avait lui-même pavé la voie de la psychologie comportementale en remportant le prix Nobel d'économie en 2002, cinq ans avant Thaler. Ils ont d'ailleurs collaboré, et les recherches de Kahneman expliquent bien des choses➋ . Il a démontré que le cerveau humain fonctionnait à deux vitesses. Le système 1, rapide et intuitif. Le système 2, rationnel, délibéré. Biologiquement, le système 1 ne demande pas beaucoup d'énergie. Le système 2 est plus énergivore, donc plus fatigant. Le nudge est donc un stimulus qui va privilégier le système 1. Il va provoquer une action rapide, qui demande peu d'effort... et notre cerveau adore ça!
→ Misez sur l'instinct. En politique, mieux vaut être sympathique et rassurant que stratégique et brillant. Pourquoi? Parce que la plupart des électeurs ne se rendent pas jusque-là dans leurs réflexions. Cela explique beaucoup de scrutins de ces dernières années, partout dans le monde. Si vous voulez réussir, pensez sans cesse au Système 1. Il faut parler à l'instinct des gens.
Deuxième idée de Thaler et Sunstein, il existe toujours un architecte du choix, assumé ou pas. La personne qui va écrire le menu du jour sur l'ardoise au restaurant, celui ou celle qui va décider de l'emplacement des étals à l'épicerie, ou bien les gens qui ont choisi les photos sur les murs de votre coiffeur... Il y a toujours quelqu'un qui a décidé quelque chose à votre place... et c'est bien normal. L'idée est d'assumer ce rôle et d'en profiter pour influencer ce choix. L'économiste prend l'exemple d'une cafétéria, où l'on peut décider de mettre les salades avant les burgers pour influencer le choix des gourmands, qui savent que la salade est un meilleur choix. En politique, on pourrait parler de "manipuler les questions" si on voulait être cynique ou brutal. Mais si les politiciens sont aussi des architectes des choix, certains d'entre eux ne s'en rendent probablement pas compte. Thaler et Sunstein pensent même que s'ils comprenaient cela, ils feraient mieux leur travail.
Depuis la naissance des nudges, les cabinets-conseils en politique n'ont pas lésiné sur l'usage intensif des coups de pouce pour demander aux citoyennes et citoyens de faire... la bonne chose. Le premier ministre britannique David Cameron, le président Obama, le président Macron ont tous créé des cellules spécialisées dans les nudges, les nudges units➍➎➏. Il s'agit d'un groupe de spécialistes des biais psychologiques. Ces experts font des recommandations de nudges à leurs clients (ici des cabinets présidentiels ou ministériels), afin d'atteindre des objectifs définis. Avec un regard critique, on peut parler de manipulation de masse. Avec un regard pragmatique, il s'agit d'assumer que tout choix est l'oeuvre d'un architecte. Et lui convient aussi d'assumer ce rôle d'architecte.
Le Canada n'est pas en reste. Le gouvernement fédéral s'est doté d'une nudges unit pour gérer la crise du COVID❼. Au Québec, les journalistes se sont peu penchés sur la question, même si on a pu observer les nudges dans la promotion de bonnes habitudes environnementales❽. Bref, les nudges sont vraiment partout!
Par définition, le nudge — l'architecte du choix qui a choisi le nudge — est paternaliste. C'est un terme qu'assument Thaler et Sunstein. L'idée, c'est d'améliorer la vie des gens... même contre leur gré. L'expression originale est "Libertarian paternalism", ce qui ressemble à un oxymore géant. On pourrait la traduire par paternalisme bienveillant, libéral, libertarien (ultra-libéral), ou intrusif et condescendant selon qu'on soit pour ou contre. La cause n'est pas entendue et fait encore débat entre les philosophes et les économistes.
Les économistes (et certains décideurs politiques) ont tendance à travailler sur l'hypothèse que les gens agissent rationnellement et qu'ils font toujours ce qui est le mieux pour eux. Cette hypothèse est fausse. Thaler et Sunstein appellent les gens qui se comportent réellement de cette manière des Econs❼, des sortes de "robots comportementaux" agissant de la bonne manière et toujours de la même façon. Thaler et Sunstein ont démontré que "les vraies personnes" n'agissent pas toujours de manière rationnelle. Elles sont sans cesse influencées par des biais et des émotions qui les empêchent d'être conformes à une norme imaginée par les instituts de sondage, les chercheurs, les économistes et les politiciens. On appelle ces gens imparfaits et irrationnels... des humains.
Thaler et Sunstein ont démontré que l'humain (en tant qu'individu) n'aime pas le changement, et qu'il a tendance à accepter ce qui est proposé. Ce biais de statu quo s'applique aussi collectivement. On parle alors de conservatisme collectif.
Dernier fait intéressant, lorsque les gens sont interrogés sur ce qu'ils ont l'intention de faire dans une enquête, ils sont plus susceptibles de le faire. Si un partisan vient cogner à votre porte, ou si un sondeur vous appelle pour savoir si vous allez voter demain... La probabilité que vous alliez vraiment voter augmente de 25%. Les instituts de sondages ont de beaux jours devant eux!
Des petits malins planchent déjà sur la suite de la saga. En 2021, Cambridge University Press a publié un article➓ sur ces supers coups de pouce, les nudges plus qui incorporent un élément de réflexion dans le nudge, une sorte de nudge "System 1 + 2", donc. Ce sont des études qui valent la peine qu'on surveille leur évolution, même si cette réflexion semble un peu contre-intuitive au regard de la pensée originelle de Thaler et Sunstein.
SAAQclic devait coûter 638 millions de dollars. La facture dépasse aujourd'hui le milliard. Le système a été lancé en février 2023 alors que les tests n'étaient même pas terminés. Des concessionnaires ne pouvaient plus livrer de véhicules. Des citoyens ne pouvaient plus renouveler leur permis. La vérificatrice générale a été limpide : coûts trois fois plus élevés, tests non complétés, informations cachées au conseil d'administration. Et le nouveau système s'est révélé moins performant que l'ancien.
Un échec sur toute la ligne. Et pourtant, personne ne s'en étonne vraiment.
On reconnaît le scénario parce qu'on l'a déjà vu. En 2016, le gouvernement fédéral lançait Phénix, un système de paie censé remplacer d'un seul coup des dizaines de systèmes pour 309 millions de dollars. Neuf ans et quatre milliards plus tard, il reste 300 000 erreurs de paie non résolues. Le vérificateur général du Canada a qualifié le projet d'« échec incompréhensible ». Et le système s'est révélé moins efficace que celui de quarante ans qu'il venait remplacer.
Et si on sort de l'informatique, le pattern tient toujours. En santé, le Québec en est à sa quatrième restructuration majeure en vingt ans. Chaque fois, on refond les structures, on centralise, on fusionne. Chaque fois, les mêmes critiques reviennent. Santé Québec regroupe aujourd'hui 330 000 employés sous un seul employeur. Après un an, les syndicats parlent de « chaos ». Un responsable syndical résumait : « Ça fait des décennies qu'on répète les mêmes erreurs. Centraliser toujours plus et consulter toujours moins. »
Et ce n'est pas un phénomène québécois. Le privé international accumule les mêmes débris. Nike a investi 400 millions de dollars pour refondre sa chaîne d'approvisionnement d'un coup : 100 millions en ventes perdues, chute de 20 % de l'action en bourse, cinq ans supplémentaires pour remettre le système debout. Lidl, le géant allemand du rabais, a travaillé sept ans sur un système SAP à 580 millions de dollars pour remplacer ses 90 solutions internes par une seule — avant de tout abandonner et de revenir à l'ancien système. Hershey's a raté Halloween 1999 — 100 millions en commandes impossibles à traiter — parce que son nouveau système n'était pas prêt. Revlon n'arrivait plus à fabriquer ni à livrer ses produits après sa migration SAP. Haribo a vu ses tablettes vides et ses ventes chuter de 25 % pour les mêmes raisons. La U.S. Navy a dépensé un milliard de dollars en quatre tentatives de systèmes de paie, sans jamais réussir. Chaque fois, le même réflexe : on jette l'ancien, on conçoit du neuf, on déploie massivement. Chaque fois, le même résultat.
Bref, les virages à 90° vont droit dans le mur. Mais pourquoi donc?
En 1975, un pédiatre américain du nom de John Gall a publié General Systemantics: An Essay on How Systems Work, and Especially How They Fail. Refusé par trente éditeurs, auto-publié, puis réédité trois fois — la dernière sous le titre The Systems Bible. Au cœur du livre, une phrase devenue célèbre sous le nom de « loi de Gall » :
Un système complexe qui fonctionne s'est invariablement développé à partir d'un système simple qui fonctionnait. Un système complexe conçu à partir de zéro ne fonctionne jamais, et on ne peut pas le rafistoler pour qu'il fonctionne. Il faut recommencer avec un système simple qui marche.
Gall — qui était pédiatre, pas consultant en management — avait observé ce phénomène dans les hôpitaux, les administrations, les programmes gouvernementaux. Son exemple le plus savoureux : le hangar de préparation des fusées à Cap Canaveral est si grand qu'il génère son propre climat, incluant des nuages et de la pluie. La structure censée protéger les fusées les arrose.
Sa conclusion : les systèmes complexes ne peuvent pas être « fabriqués ». Ceux qui fonctionnent ont tous évolué à partir de quelque chose de simple qui tenait debout.
À la même époque où SAAQclic s'enfonçait, un autre projet d'État réussissait sous le radar. La SQDC a été mise sur pied en moins d'un an et fonctionnait dès le jour de la légalisation du cannabis en octobre 2018. Réseau de succursales opérationnel, site de vente en ligne fonctionnel, approvisionnement sécurisé. Jean-François Bergeron, responsable de la mise sur pied, a parlé d'un « tour de force ».
Comment ? En ne repartant pas de zéro.
La SQDC a été créée comme filiale de la SAQ. Même infrastructure logistique, même expertise en commerce de détail, mêmes réflexes opérationnels. On a greffé un nouveau mandat sur un système qui fonctionnait déjà. Simple d'abord : une vingtaine de succursales, une centaine de produits. Puis on a construit dessus.
Et la SAQ elle-même est un cas d'école. Quand Gaétan Frigon en prend la présidence en 1998, la société d'État souffre de ce qu'il appellera « la maladie du monopole ». Aucune croissance depuis dix ans. Des succursales fermées le dimanche dans des centres commerciaux où les trente autres commerces sont ouverts.
Frigon n'a pas commandé un grand plan stratégique à une firme de consultation. Il a fait le tour des succursales en Gaspésie, a compté les magasins ouverts le dimanche — trente sur trente et un, le seul fermé étant la SAQ — et il les a ouverts. Six cents emplois de plus. Le dimanche est devenu la deuxième journée de ventes en moins d'un an.
Puis il a enchaîné : circulaires, promotions, paiement par carte de crédit, trois bannières (Classique, Express, Sélection), transformation des vendeurs en « conseillers en vin ». Chaque geste simple, greffé sur ce qui fonctionnait déjà. En quatre ans, la SAQ est passée de hors palmarès à troisième entreprise la plus admirée des Québécois.
Son message aux troupes : « Si on veut que nos clients n'appellent pas à la privatisation, soyons les meilleurs. »
Le privé québécois connaît le même principe, même s'il ne cite pas Gall. Desjardins perdait 80 000 membres en cinq ans et traînait au huitième rang en satisfaction client parmi les institutions financières canadiennes. La réponse classique aurait été une refonte technologique massive. Desjardins a plutôt choisi vingt produits prioritaires — ouverture de compte, carte de crédit, renouvellement hypothécaire — et les a numérisés un par un. Cinq ans plus tard : les ventes en ligne sont passées de 25 % à 40 %, quatorze points devant la moyenne canadienne, et le NPS a bondi de onze points. Du huitième rang au deuxième. Nathalie Larue, première vice-présidente, résume l'approche : « Ne jamais isoler le chantier numérique. »
Couche-Tard a suivi la même logique pendant quarante ans. Un seul dépanneur à Laval en 1980. Puis des acquisitions ciblées, digérées une à une — d'abord au Québec, puis au Canada, puis aux États-Unis, puis en Scandinavie, puis en Asie. Chaque marché absorbé avant de passer au suivant. Aujourd'hui : 16 700 magasins dans 27 pays, l'action multipliée par mille. Alain Bouchard n'a jamais tenté de devenir un géant mondial d'un seul coup. Il a construit sur ce qui marchait, encore et encore.
Et Bombardier est peut-être l'exemple le plus spectaculaire. En 2020, l'entreprise frôlait l'écrasement : endettement massif, divisions vendues les unes après les autres, flux de trésorerie négatifs. Éric Martel a pris les commandes avec un plan de redressement sur cinq ans — pas une refonte totale, mais un recentrage progressif : aviation d'affaires d'abord, puis services après-vente, puis défense. Chaque étape construite sur la précédente. En 2025, Bombardier a dépassé tous les objectifs de son plan : 9,55 milliards de revenus, cinquième année consécutive de croissance, un carnet de commandes de 17,5 milliards. Le cas fait désormais l'objet d'études à Harvard et à Columbia. Martel résume : « Nous avons transformé l'entreprise. » Mais il l'a fait morceau par morceau.
La loi de Gall est contre-intuitive pour quiconque vend de la transformation. L'ambition dit : « On voit le problème, on a les ressources, on y va. » La loi de Gall répond : « Plus vous concevez grand d'emblée, plus vous avez de chances d'échouer. »
C'est un problème pour les grandes firmes de consultation, dont le modèle d'affaires repose sur la refonte totale. On diagnostique, on recommande un plan en 200 diapositives, on facture des millions, et on laisse le client avec un système complexe conçu à partir de zéro. Exactement ce que Gall dit de ne jamais faire.
Les organisations qui changent vraiment commencent plus petit que ce qui semble confortable. Une habitude. Une réunion. Une décision qui tient. Puis elles construisent dessus. Non pas parce qu'elles manquent d'ambition — mais parce qu'un système qui fonctionne gagne le droit de grandir. Un système qui ne fonctionne pas s'effondre sous son propre poids.
La question que Gall poserait à n'importe quel comité de direction : Quelle est la version la plus simple du changement que vous essayez de faire ?
Si la réponse prend plus de deux phrases, c'est qu'on n'a pas encore trouvé le système simple.
Lorsqu’un changement est introduit dans une organisation, il provoque inévitablement des réactions. Ces dernières, souvent interprétées comme des résistances, sont en réalité des préoccupations légitimes. Céline Bareil a développé un modèle structurant pour comprendre ces dynamiques : les sept phases de préoccupations.
Madame Bareil est une figure influente dans le domaine de la gestion et du changement organisationnel. Professeure à HEC Montréal, elle se spécialise dans les dynamiques de transformation en milieu de travail, explorant comment les entreprises et leurs employés s'adaptent aux innovations et aux transitions majeures. Avec une approche axée sur les personnes, ses recherches touchent des thématiques telles que l'accompagnement au changement, les apprentissages organisationnels et le leadership dans des contextes complexes.
Ce modèle explique que les individus progressent dans un cheminement logique face au changement, allant de l’indifférence initiale à une pleine adhésion — pour peu que leurs préoccupations soient traitées adéquatement.
Cette théorie s’applique incroyablement bien au contexte d’un pitch, car ce dernier prépare toujours le terrain à un changement imminent. Lorsqu’on propose une nouvelle idée, un projet ou un produit, on confronte son audience à un futur différent, qui suscite des réactions similaires à celles observées lors d’un changement organisationnel. Un pitch efficace — comme une bonne gestion du changement — doit répondre à ces préoccupations avec clarté, empathie et vision. En adressant chaque phase, on ne vend pas seulement une idée, mais on construit une adhésion progressive et durable au changement qu’elle incarne.
Pour accompagner vos équipes dans le changement, il est essentiel de répondre aux préoccupations exprimées à chaque phase. Voici comment le faire efficacement.
Un gestionnaire avisé se concentre non seulement sur les mots, mais aussi sur les actions. Chaque phase est une opportunité de bâtir la confiance et d’assurer un passage réussi vers l’étape suivante.
Pour illustrer, prenons un exemple "brûlant"... le cas du retour au bureau après une période prolongée de télétravail :
La fenêtre d'Overton est une théorie qui décrit la gamme des idées ou des politiques acceptables à un moment donné dans la société. Imaginée par Joseph P. Overton, cette "fenêtre" représente l’espace des idées perçues comme raisonnables, où les décisions politiques peuvent être prises sans provoquer un rejet massif. Cette fenêtre évolue au fil du temps, sous l’influence de discours, de pratiques sociales ou politiques, permettant d’élargir ou de rétrécir la portée des concepts acceptables.
Dans une organisation, cette théorie peut s’appliquer au changement de mentalités, d’habitudes ou de structures. La gestion du changement devient ainsi une question de déplacement progressif de cette "fenêtre" d’acceptabilité au sein de l’entreprise. Ce déplacement se fait par petites étapes, de manière à rendre des idées autrefois jugées irréalisables progressivement normales, puis incontournables.
Voici les étapes de la fenêtre d'Overton :
Voyons maintenant comment appliquer la fenêtre d'Overton dans le quotidien avec un sujet brûlant, le retour au bureau.
Ce type de stratégie fonctionne parce que l'humain réagit souvent par comparaison et en relativisant ce qui lui est présenté. Une idée jugée impensable, lorsqu’elle est présentée en premier, modifie notre seuil de tolérance face à des idées plus raisonnables. En psychologie, on parle parfois de l'effet d'ancrage : en fixant une idée extrême comme point de départ, on influence la perception des propositions plus modérées.
Ainsi, pour les organisations cherchant à appliquer la fenêtre d'Overton à la gestion du changement, la promotion d'idées plus extrêmes au départ peut s'avérer une tactique efficace pour amener progressivement des changements significatifs qui paraissaient difficiles à faire accepter initialement.
Attention, la fenêtre d'Overton est à utiliser avec beaucoup de précaution. Comme pour les nudges, vous ne pouvez pas échapper à un questionnement éthique dans ce type de stratégie. En effet, La fenêtre d'Overton est souvent utilisée en politique, notamment par les partis extrêmes, pour déplacer progressivement ce qui est jugé acceptable dans le discours public. En promouvant des idées initialement considérées comme impensables ou radicales, ces partis cherchent à élargir les limites de la fenêtre pour rendre leurs propositions plus modérées en comparaison. Par exemple, des partis d'extrême droite ou d'extrême gauche peuvent introduire des politiques ou des déclarations très provocatrices afin de pousser le débat vers des solutions perçues comme plus extrêmes. Une fois que ces idées radicales commencent à être discutées dans les médias et les espaces politiques, des propositions qui semblaient autrefois radicales – comme des réformes sévères sur l'immigration ou la redistribution économique – deviennent soudainement acceptables, voire légitimes. Cette tactique permet à ces partis de normaliser des idées qui étaient autrefois en dehors des limites du débat public, en déplaçant progressivement la fenêtre d’Overton vers leurs propres idéaux politiques. Alors... prudence.
C'est à Richard Buckminster Fuller que nous devons la théorie de la Knowledge Doubling Curve, une prédiction dictée en 1980 et qui se vérifie aujourd'hui.
Bucky était le mauvais garçon de la Silicon Valley. Plusieurs fois viré de Harvard, il est devenu une inspiration pour le mouvement cybernétique et un gourou pour la communauté technologique naissante des années 60. Véritable touche-à-tout, architecte, designer, inventeur fou et futurologue, il est le papa de la biosphère de Montréal, et celui d'une théorie : la connaissance collective est exponentielle.
Cette théorie a peu été relayée par les universitaires de l’époque, mais tout s’explique par la réputation académique de Bucky. Or, aujourd’hui, elle résonne comme une véritable prédiction. L’idée : la connaissance collective à vitesse exponentielle. Attention, pas l’intelligence collective, la connaissance collective !

Il fallait 100 ans pour que la connaissance collective double en 1900.
Il fallait 25 ans pour que la connaissance collective double au milieu du siècle dernier.
Il fallait 13 mois pour que la connaissance collective double en 2016.
IBM a même poursuivi ces projections et annonce que le savoir doublera toutes les... douze heures, en 2036.
Pensez au corpus de connaissances de la médecine De Humani Corporis Fabrica (sur la structure du corps humain), qui fut l’œuvre majeure d’André Vésale, et véritable référence pour tous les scientifiques du xvie siècle. Tout était là. Toute la connaissance de la médecine rassemblée dans une seule œuvre publiée en 1543. Ce fut un tournant dans l’histoire de la médecine et de l’étude de l’anatomie humaine. Cet ouvrage était si imposant qu’il est souvent confondu avec une encyclopédie en raison de sa vaste couverture du sujet et de sa contribution fondamentale à la compréhension du corps humain. Tout le savoir de l’humanité sur l’humain ! Bon, eh bien De Humani Corporis Fabrica comptait 659 pages illustrées. Imaginez, en moins de 700 pages, on savait tout sur tout, sur la médecine du xvie siècle. Imaginez maintenant le volume de connaissances que nous avons sur le corps humain aujourd’hui !
Ou pensez encore à l’effervescence des sciences après la Deuxième Guerre mondiale, en partie produite par la fuite des cerveaux d’Europe centrale vers les universités américaines après l’élection d’Hitler en 1933. Tous les grands campus américains ont hérité de ces exilés allemands, autrichiens, hongrois, polonais expulsés par le régime nazi — notamment grâce à la fondation Rockefeller. Cette dernière mit en place un fonds d’aide spéciale pour les chercheurs destitués (Aid Fund for Deposed Scholars) destiné à financer des universitaires et intellectuels européens contraints de fuir le nazisme. Entre 1933 et 1942, ce programme permit d’aider plusieurs centaines d’intellectuels à trouver refuge sur des campus américains. Sans faire d’angélisme — l’accueil des chercheurs juifs était tout de même timide : il suffit de s’intéresser au parcours d’Einstein pour s’en convaincre —, ces années furent fructueuses sur le plan scientifique.
Les disciplines se croisèrent, les savoirs s’entrechoquèrent, et de nouveaux modes de pensée ont émergé de ces mélanges. C’est la naissance de la hiérarchie des besoins et des motivations de Maslow, c’est le début du design thinking, des focus groups, de l’informatique de Von Neumann en 1945, et bientôt de l’intelligence artificielle en 1955, avec la fine équipe de Dartmouth.
Ces inventions, combinées, ont accéléré davantage la production de connaissances, liée depuis à la puissance des ordinateurs. Depuis l’invention de l’ordinateur, la recherche est liée à la puissance des microprocesseurs, avec une loi bien connue (et parfois contestée), la loi de Moore. Gordon Moore était un des cofondateurs d’Intel, et un des papas du microprocesseur. Sa loi n’est pas tant une loi physique qu’une observation empirique, mais elle a fait foi pendant des décennies. Voilà ce qu’elle dit : à coût constant, la vitesse des microprocesseurs double tous les 18 mois. Une prédiction de 1965 — que Buckminster Fuller avait anticipée plusieurs années auparavant — restée vraie jusqu’en 2015, la physique imposant des barrières naturelles à la progression de cette vitesse. Moore avait lui-même prévu la limite de sa propre loi. Une limite physique insurmontable, puisqu’en dessous d’une échelle nanométrique (sous 10 nm), il devient difficile de miniaturiser davantage les microprocesseurs sans faire face à des problèmes complexes : effets quantiques, dissipation thermique, limitations de la lithographie, etc. Dès lors, il a été plus facile de multiplier les processeurs que de miniaturiser les microprocesseurs.
C’était sans compter le génie des équipes de Jensen Huang, grand patron de NVIDIA. En 2019, il déclare la mort de la loi de Moore et qu’il faudra désormais compter sur d’autres types de technologie… Optimisation des architectures, parallélisation des cœurs de processeurs et spécialisation des microprocesseurs (notamment les GPU) ont révolutionné l’approche de l’informatique matérielle. L’accélération des ordinateurs est redevenue possible, accélérant encore et encore la production de connaissances.
Aujourd’hui, les chercheurs ne cherchent plus. Ils ont produit des IA capables de chercher à leur place, donc de plus en plus vite. Par exemple, cette IA nommée M3GNet, développée par l’Université de Californie, a « inventé » une base de données de plus de 31 millions de nouveaux matériaux inexistants, en prédisant également leurs propriétés. Grâce à M3GNet, l’humanité découvre de nouveaux matériaux à une vitesse totalement inédite, vertigineuse.

Alors ? Buckminster était-il fou de considérer que la connaissance allait grandir à une vitesse exponentielle ? Au-delà de notre ressenti, quelle preuve tangible peut-on produire pour montrer le bien-fondé de son intuition ? La réponse est arrivée chez Perrier Jablonski au détour d’un mandat, pour lequel nous avions à creuser le sujet. Nous sommes tombés sur une étude édifiante, celle de l’American Clinical and Climatological Association, publiée en 2011.
Cette étude voulait alerter l’administration Obama sur les défis de la formation des médecins, dans un monde où la connaissance grandit si vite. Et le rapport donne des chiffres. Évidemment, ces chiffres sont faciles à obtenir à une époque où tout se compte (brevets, recherches, mémoires, etc.). Les voici.
Il fallait 50 ans pour que la connaissance médicale double en 1950, 7 ans en 1980, 3 ans et demi en 2010... et... 73 jours en 2020. Un étudiant qui a commencé ses études de médecine en 2010 est devenu médecin en 2017. Dans ce même laps de temps, la connaissance médicale a doublé trois fois.
Si vous pensiez que le monde allait certainement ralentir un jour, j’ai une réponse pour vous. Enfin, pas moi, mais le président de Google, Sundar Pichai, qui annonçait en 2019 les premiers tests du premier processeur quantique, le Sycamore 54-qubit. Sycamore a réalisé un calcul complexe en 3 minutes et 20 secondes... alors qu’il faudrait 10 000 ans aux meilleurs super calculateurs du marché. Bien évidemment, il s’agit d’un test réalisé dans des conditions impossibles à reproduire dans le quotidien... Mais ce n’est qu’une question de temps.
Trois minutes contre 10 000 ans. Non, l’accélération n’est pas prête de ralentir...
