




C'est à Richard Buckminster Fuller que nous devons la théorie de la Knowledge Doubling Curve, une prédiction dictée en 1980 et qui se vérifie aujourd'hui.
Bucky était le mauvais garçon de la Silicon Valley. Plusieurs fois viré de Harvard, il est devenu une inspiration pour le mouvement cybernétique et un gourou pour la communauté technologique naissante des années 60. Véritable touche-à-tout, architecte, designer, inventeur fou et futurologue, il est le papa de la biosphère de Montréal, et celui d'une théorie : la connaissance collective est exponentielle.
Cette théorie a peu été relayée par les universitaires de l’époque, mais tout s’explique par la réputation académique de Bucky. Or, aujourd’hui, elle résonne comme une véritable prédiction. L’idée : la connaissance collective à vitesse exponentielle. Attention, pas l’intelligence collective, la connaissance collective !

Il fallait 100 ans pour que la connaissance collective double en 1900.
Il fallait 25 ans pour que la connaissance collective double au milieu du siècle dernier.
Il fallait 13 mois pour que la connaissance collective double en 2016.
IBM a même poursuivi ces projections et annonce que le savoir doublera toutes les... douze heures, en 2036.
Pensez au corpus de connaissances de la médecine De Humani Corporis Fabrica (sur la structure du corps humain), qui fut l’œuvre majeure d’André Vésale, et véritable référence pour tous les scientifiques du xvie siècle. Tout était là. Toute la connaissance de la médecine rassemblée dans une seule œuvre publiée en 1543. Ce fut un tournant dans l’histoire de la médecine et de l’étude de l’anatomie humaine. Cet ouvrage était si imposant qu’il est souvent confondu avec une encyclopédie en raison de sa vaste couverture du sujet et de sa contribution fondamentale à la compréhension du corps humain. Tout le savoir de l’humanité sur l’humain ! Bon, eh bien De Humani Corporis Fabrica comptait 659 pages illustrées. Imaginez, en moins de 700 pages, on savait tout sur tout, sur la médecine du xvie siècle. Imaginez maintenant le volume de connaissances que nous avons sur le corps humain aujourd’hui !
Ou pensez encore à l’effervescence des sciences après la Deuxième Guerre mondiale, en partie produite par la fuite des cerveaux d’Europe centrale vers les universités américaines après l’élection d’Hitler en 1933. Tous les grands campus américains ont hérité de ces exilés allemands, autrichiens, hongrois, polonais expulsés par le régime nazi — notamment grâce à la fondation Rockefeller. Cette dernière mit en place un fonds d’aide spéciale pour les chercheurs destitués (Aid Fund for Deposed Scholars) destiné à financer des universitaires et intellectuels européens contraints de fuir le nazisme. Entre 1933 et 1942, ce programme permit d’aider plusieurs centaines d’intellectuels à trouver refuge sur des campus américains. Sans faire d’angélisme — l’accueil des chercheurs juifs était tout de même timide : il suffit de s’intéresser au parcours d’Einstein pour s’en convaincre —, ces années furent fructueuses sur le plan scientifique.
Les disciplines se croisèrent, les savoirs s’entrechoquèrent, et de nouveaux modes de pensée ont émergé de ces mélanges. C’est la naissance de la hiérarchie des besoins et des motivations de Maslow, c’est le début du design thinking, des focus groups, de l’informatique de Von Neumann en 1945, et bientôt de l’intelligence artificielle en 1955, avec la fine équipe de Dartmouth.
Ces inventions, combinées, ont accéléré davantage la production de connaissances, liée depuis à la puissance des ordinateurs. Depuis l’invention de l’ordinateur, la recherche est liée à la puissance des microprocesseurs, avec une loi bien connue (et parfois contestée), la loi de Moore. Gordon Moore était un des cofondateurs d’Intel, et un des papas du microprocesseur. Sa loi n’est pas tant une loi physique qu’une observation empirique, mais elle a fait foi pendant des décennies. Voilà ce qu’elle dit : à coût constant, la vitesse des microprocesseurs double tous les 18 mois. Une prédiction de 1965 — que Buckminster Fuller avait anticipée plusieurs années auparavant — restée vraie jusqu’en 2015, la physique imposant des barrières naturelles à la progression de cette vitesse. Moore avait lui-même prévu la limite de sa propre loi. Une limite physique insurmontable, puisqu’en dessous d’une échelle nanométrique (sous 10 nm), il devient difficile de miniaturiser davantage les microprocesseurs sans faire face à des problèmes complexes : effets quantiques, dissipation thermique, limitations de la lithographie, etc. Dès lors, il a été plus facile de multiplier les processeurs que de miniaturiser les microprocesseurs.
C’était sans compter le génie des équipes de Jensen Huang, grand patron de NVIDIA. En 2019, il déclare la mort de la loi de Moore et qu’il faudra désormais compter sur d’autres types de technologie… Optimisation des architectures, parallélisation des cœurs de processeurs et spécialisation des microprocesseurs (notamment les GPU) ont révolutionné l’approche de l’informatique matérielle. L’accélération des ordinateurs est redevenue possible, accélérant encore et encore la production de connaissances.
Aujourd’hui, les chercheurs ne cherchent plus. Ils ont produit des IA capables de chercher à leur place, donc de plus en plus vite. Par exemple, cette IA nommée M3GNet, développée par l’Université de Californie, a « inventé » une base de données de plus de 31 millions de nouveaux matériaux inexistants, en prédisant également leurs propriétés. Grâce à M3GNet, l’humanité découvre de nouveaux matériaux à une vitesse totalement inédite, vertigineuse.

Alors ? Buckminster était-il fou de considérer que la connaissance allait grandir à une vitesse exponentielle ? Au-delà de notre ressenti, quelle preuve tangible peut-on produire pour montrer le bien-fondé de son intuition ? La réponse est arrivée chez Perrier Jablonski au détour d’un mandat, pour lequel nous avions à creuser le sujet. Nous sommes tombés sur une étude édifiante, celle de l’American Clinical and Climatological Association, publiée en 2011.
Cette étude voulait alerter l’administration Obama sur les défis de la formation des médecins, dans un monde où la connaissance grandit si vite. Et le rapport donne des chiffres. Évidemment, ces chiffres sont faciles à obtenir à une époque où tout se compte (brevets, recherches, mémoires, etc.). Les voici.
Il fallait 50 ans pour que la connaissance médicale double en 1950, 7 ans en 1980, 3 ans et demi en 2010... et... 73 jours en 2020. Un étudiant qui a commencé ses études de médecine en 2010 est devenu médecin en 2017. Dans ce même laps de temps, la connaissance médicale a doublé trois fois.
Si vous pensiez que le monde allait certainement ralentir un jour, j’ai une réponse pour vous. Enfin, pas moi, mais le président de Google, Sundar Pichai, qui annonçait en 2019 les premiers tests du premier processeur quantique, le Sycamore 54-qubit. Sycamore a réalisé un calcul complexe en 3 minutes et 20 secondes... alors qu’il faudrait 10 000 ans aux meilleurs super calculateurs du marché. Bien évidemment, il s’agit d’un test réalisé dans des conditions impossibles à reproduire dans le quotidien... Mais ce n’est qu’une question de temps.
Trois minutes contre 10 000 ans. Non, l’accélération n’est pas prête de ralentir...

Pas étonnant que nous nous sentions débordés dans un monde qui ne fait qu'accélérer. La connaissance collective double chaque année. Cette vitesse est indexée à celle des microprocesseurs qui n'ont jamais cessé d'accélérer depuis 60 ans.
Steven J. Spear et Gene Kim sont des experts reconnus dans les domaines de la gestion et de l'innovation organisationnelle. Steven J. Spear, professeur au MIT Sloan School of Management, est un spécialiste des systèmes complexes et du lean management. Il est notamment l'auteur de The High-Velocity Edge, un ouvrage qui explore comment certaines organisations réussissent à innover et à s'adapter plus rapidement que leurs concurrents. Gene Kim, quant à lui, est une figure centrale du mouvement DevOps. Il a co-écrit plusieurs livres influents dans ce domaine, dont The Phoenix Project et The Unicorn Project, qui mettent en lumière comment les pratiques technologiques modernes peuvent transformer les entreprises et accroître leur performance.
Leur nouvelle théorie repose sur trois concepts clés : la slowification, la simplification et l'amplification. Voyons comment on peut l'appliquer dans notre quotidien, dans un contexte imprévisible et complexe.
La "zone de danger", selon Spear et Kim, représente les situations où les organisations font face à une grande complexité, des facteurs interconnectés, et des décisions rapides avec des enjeux élevés. C'est un environnement où les problèmes sont difficiles à identifier car ils sont souvent cachés, et où l'absence d'itérations ou d'opportunités de correction conduit à des risques élevés d'échec catastrophique.
Par exemple, le scandale des émissions de Volkswagen en 2015 montre à quel point les entreprises peuvent tomber dans la zone de danger. La manipulation des tests d'émissions dans le but de répondre rapidement aux attentes réglementaires a impliqué de nombreuses parties prenantes dans un système très complexe. L'accélération sans itérations possibles a conduit à une crise qui a coûté à l'entreprise plusieurs milliards de dollars en amendes, en plus d'endommager gravement sa réputation mondiale. La zone de danger, ici, est caractérisée par des décisions rapides, mal pensées, sans possibilité de retour en arrière.

La simplification est la première clé pour sortir de la zone de danger. En rendant les processus plus compréhensibles et contrôlables, les leaders peuvent gérer la complexité de manière proactive. Simplifier signifie réduire le nombre de variables à surveiller et permettre aux équipes d'itérer sur leurs actions. Cela ne signifie pas éliminer la complexité, mais la rendre gérable.
Un exemple classique de simplification réussie se trouve dans l'industrie aéronautique. Airbus, lors du développement de l'A350, a fait face à des défis technologiques complexes avec un grand nombre de nouveaux matériaux et systèmes. En simplifiant les processus de fabrication, en segmentant le développement en phases itératives, et en adoptant des méthodologies agiles, Airbus a pu gérer les risques potentiels liés à la complexité. Résultat : une réduction des coûts et des délais, et un avion qui a su concurrencer efficacement Boeing. La simplification a permis de rendre visibles les problèmes et de les traiter avant qu'ils ne deviennent incontrôlables.
La slowification, un terme emprunté à Spear et Kim, propose une approche radicalement différente de la manière dont les entreprises affrontent la pression. Ralentir le rythme des décisions permet aux organisations de mieux comprendre leur environnement, d'explorer plusieurs options et de détecter plus facilement les problèmes sous-jacents.
Prenons l'exemple de Toyota, un pionnier du lean management. Toyota a intégré la slowification dans sa chaîne de production en instaurant le principe du "Jidoka", qui permet aux travailleurs d'arrêter la ligne de production en cas de problème. Ce ralentissement instantané permet d'identifier et de résoudre les problèmes au moment où ils se produisent, évitant ainsi des erreurs massives coûteuses en aval. En intégrant des mécanismes de slowification, Toyota a pu rester leader dans un secteur ultra compétitif et complexe tout en minimisant les risques.
Dans un autre domaine, Netflix a également utilisé la slowification pour sa stratégie de lancement de contenu. Plutôt que de suivre les modèles traditionnels de diffusion, l'entreprise a opté pour des tests itératifs à petite échelle, observant attentivement les comportements des utilisateurs avant de généraliser ses innovations. Cette stratégie a permis à Netflix d'éviter les investissements massifs dans des projets voués à l'échec, tout en ajustant en temps réel sa programmation et ses développements technologiques.
Enfin, l'amplification permet de maximiser les efforts et de faire grandir l'impact des décisions prises. Amplifier, dans ce contexte, signifie répéter ce qui fonctionne, augmenter la portée des initiatives positives, et s'assurer que les processus simplifiés et les retours issus de la slowification sont pleinement exploités.
Amazon est un bon exemple d'une entreprise ayant utilisé l'amplification pour son modèle logistique. En 2005, Amazon lance le programme Prime, une initiative qui repose sur la simplification du modèle de livraison avec une approche "slowifiée", permettant à l'entreprise de mieux contrôler ses flux logistiques. Après avoir testé le concept dans certaines régions et observé les résultats, Amazon a amplifié cette initiative à l'échelle mondiale. Ce modèle de livraison rapide a ensuite été étendu à de nouveaux services tels que la livraison de produits alimentaires avec Amazon Fresh.
Un autre exemple d'amplification réussie se trouve dans la stratégie de la société Tesla. En commençant par produire des véhicules électriques haut de gamme en faible volume avec la Model S, Tesla a lentement perfectionné sa technologie et ses processus de production. Une fois maîtrisés, Tesla a amplifié son impact en élargissant son offre à des modèles plus abordables comme la Model 3, augmentant ainsi son empreinte sur le marché mondial des véhicules électriques. Chaque étape de simplification et de slowification a permis une amplification massive des résultats sur les marchés internationaux.
Le passage de la zone de danger à la zone de succès n'est pas un processus instantané. Il nécessite de revoir la manière dont une organisation fait face aux pressions externes et aux complexités croissantes. En suivant une approche basée sur la simplification, la slowification et l'amplification, les organisations peuvent réduire les risques, améliorer leurs performances et minimiser les coûts d'échec.
Dans leur livre, Spear et Kim soulignent que ces principes ne s'appliquent pas uniquement aux grandes entreprises mais à toute organisation qui fait face à des défis complexes. En prenant des mesures pour ralentir le processus décisionnel, les leaders peuvent aider leurs équipes à mieux comprendre les problèmes, à itérer sur les solutions, et à amplifier les pratiques qui fonctionnent, menant ainsi à des environnements plus stables et prévisibles.
Nous sommes le 30 juin 2003, à Caro, une petite ville du Michigan. Un avion ultraléger décolle de l'aéroport de Tuscola. Aux commandes, Joseph P. Overton, 43 ans, vice-président du Mackinac Center for Public Policy. L'appareil s'écrase quelques secondes après le décollage. Overton décède sur place.
Trois mois après ses noces, le jeune libertarien venait de mourir sans savoir que son nom allait bientôt baptiser une des théories les plus sulfureuses de la gestion politique. C'est son collègue Joseph Lehman qui reconstituera ses idées après sa mort, à partir de notes et de conversations. La fenêtre d'Overton est une œuvre posthume.
L'idée centrale du libertarianisme, c'est la liberté individuelle absolue et le libre marché sans entraves. Le Mackinac Center est un puissant think tank libertarien. Le groupe milite contre les syndicats, pour la privatisation des services publics, contre la régulation économique. Du conservatisme économique américain pur jus et assumé. Si tout cela vous sonne une cloche, c'est normal.
Le conseiller de Trump, Steve Bannon, a largement décrit — publiquement et sans gêne — sa stratégie médiatique comme un usage délibéré de la "fenêtre d'Overton" : inonder l'espace public de positions extrêmes pour rendre le trumpisme raisonnable en comparaison. Des think tanks d'extrême droite européens ont publié des guides pratiques pour déplacer la fenêtre sur l'immigration, l'identité nationale, la remise en question des institutions démocratiques.
Comprendre la fenêtre d'Overton nous permet de mieux saisir la stratégie de communication des républicains depuis 2016. Mais elle nous permet aussi de comprendre une mécanique psychologique importante dans la gestion du changement et des perceptions. Comme on le sent déjà, la fenêtre d'Overton sent un peu la mort depuis sa naissance. Et ça va sentir mauvais tout au long du chemin. Mais il est parfois nécessaire de traverser des marécages boueux pour comprendre ce qui se cache de plus sombre dans l'esprit humain. Alors on se pince le nez, et on y va.
L'idée de base est simple. À tout moment, dans une société ou dans une organisation, il existe un ensemble d'idées, de propositions ou de comportements qui sont perçus comme acceptables. Pas nécessairement populaires, pas nécessairement bons — simplement dans le champ du possible. Tout ce qui se trouve hors de cette fenêtre est considéré comme trop radical, trop bizarre, trop risqué ou carrément impensable pour mériter une discussion sérieuse.
Cette fenêtre n'est pas fixe. Elle se déplace. Elle s'élargit ou se rétrécit. Et ce déplacement n'est pas le fruit du hasard : il est influencé par les discours, les événements, les crises, les précédents — et par la façon dont les idées sont introduites dans la conversation.
Overton a décrit six positions sur le spectre d'une idée. Impensable — L'idée est perçue comme choquante, immorale ou absurde. Même la mentionner sérieusement est risqué. Radicale — L'idée commence à circuler dans certains cercles, mais reste marginale et controversée. Acceptable — L'idée entre dans le débat sérieux. Des gens raisonnables commencent à la défendre. Sensée — L'idée est perçue comme une option viable parmi d'autres. Courante — L'idée est largement adoptée, voire attendue. Politique établie — L'idée est devenue la norme. Elle est institutionnalisée. On ne la remet plus en question.
Ce qui est crucial à comprendre : une idée ne saute pas directement de l'impensable au courant dominant. Elle traverse ces étapes l'une après l'autre, à des vitesses variables, sous l'influence de multiples facteurs. Et parfois — on y reviendra — une crise fracasse la vitre et brûle les étapes. Ce n'est pas la même chose.
J'ai délibérément choisi un exemple impensable, inconfortable, dégeulasse — et j'embrasse Carmen, mon petit amour de chat au passage. Mais je voulais un exemple extrême. C'est l'idée. C'est exactement ce dont la fenêtre d'Overton a besoin pour fonctionner. Donc… Et si on mangeait des chats?
Impensable. En Occident, l'idée est impensable. Pas illégale dans la plupart des pays — juste socialement inadmissible. Exactement là où était la viande chevaline il y a deux générations. Aujourd'hui, le cheval est au menu des brasseries françaises sans que personne ne s'indigne. Quelqu'un a déplacé la fenêtre. Revenons au chat.
Radicale. On commence par créer les conditions d'un débat légitime. Des chercheurs publient des données sur les traditions culinaires félines en Asie du Sud-Est — elles existent. Des philosophes posent une question gênante : si on mange des cochons, qui sont cognitivement comparables aux chats, pourquoi pas des chats? L'idée est encore choquante. Mais elle est maintenant dans la conversation. C'est suffisant pour l'instant.
Acceptable. Viennent ensuite les arguments sérieux. L'empreinte carbone d'un chat de compagnie est réelle et documentée. La surpopulation féline dans les villes nord-américaines est un problème coûteux. Des millions de chats sont euthanasiés chaque année dans des refuges. L'argument de la valorisation d'une ressource déjà disponible n'est pas absurde — il est simplement inaudible. Pour l'instant.
Sensée. Puis les précédents. La Suisse a légalement autorisé la consommation de viande de chat depuis 2022 (ceci n'est pas une blague et… ça change de la raclette 😆). Ce n'est pas anecdotique : ça suffit à faire passer l'idée de radicale à acceptable, étudiable, cartographiable.
Courante. Le basculement se produit quand le contexte change. Une pénurie alimentaire. Une taxe carbone sur la viande bovine. Un scandale sanitaire dans l'industrie porcine. Les arguments qui dormaient dans les marges deviennent soudainement audibles. Des chefs expérimentent. Les médias couvrent sans rigoler.
Politique établie. C'est exactement la mécanique qui a rendu les insectes comestibles acceptables en dix ans. En 2010, manger des grillons en Occident était une blague. En 2023, les farines d'insectes sont en supermarché européen. Personne n'a changé d'avis du jour au lendemain. La fenêtre s'est simplement déplacée — argument par argument, précédent par précédent.
Le chat, c'est peut-être dans vingt ans. Ou jamais. Mais le mécanisme, lui, est déjà à l'œuvre sur des idées que vous défendez en ce moment dans votre organisation — et que vos collègues trouvent tout aussi impensables.
Avant même de penser à utiliser la fenêtre d'Overton comme outil de gestion, il faut apprendre à la lire. Et c'est là que son utilité est la plus immédiate, la moins risquée, et la plus précieuse.
Regardez un enjeu d'actualité — la semaine de quatre jours, la transparence salariale, le droit à la déconnexion, l'intelligence artificielle dans les processus RH — et posez-vous la question : où est-on sur ce spectre, dans mon secteur, dans mon organisation, dans ma culture?
Cette lecture vous donne une information stratégique fondamentale : à quelle étape de la fenêtre se situe l'idée que vous voulez faire avancer? C'est cette étape qui détermine votre approche. Une idée ne se défend pas de la même façon selon qu'elle est encore impensable ou déjà largement sensée.
Attention aussi aux fenêtres fracassées. Une crise majeure ne déplace pas la fenêtre : elle la brise. Le confinement de 2020 en est l'exemple parfait. En février, interdire aux gens de sortir de chez eux, de voir leur famille, de tenir leur commerce ouvert était proprement impensable dans une démocratie occidentale. En mars, c'était la loi. La distanciation sociale — ne pas s'approcher à moins de deux mètres d'un inconnu, ne pas serrer la main, ne pas embrasser — était devenue une obligation morale et légale en l'espace de quelques jours. Pas parce que les esprits avaient évolué. Parce que les circonstances avaient fracassé la vitre. Et on a vu ce qui s'est passé ensuite : les théories du complot, la résistance aux masques, la défiance vaccinale, la nostalgie d'un avant que certains n'ont jamais vraiment quitté. La fenêtre avait été brisée, pas ouverte. Ce type de changement brutal laisse des traces profondes. Les gestionnaires qui confondent «fenêtre fracassée» et «fenêtre déplacée» se retrouvent souvent à gérer un changement que personne n'a vraiment compris — et encore moins accepté.
Un communicateur interne, un responsable RP ou un directeur des affaires publiques vit en permanence dans cette tension : comment introduire une idée qui n'est pas encore acceptable, sans provoquer un rejet immédiat?
Pensez simplement au retour au bureau. Le problème n'était jamais le nombre de jours. C'était le fait d'avoir mal lu où en était la fenêtre — et d'avoir tenté de forcer une porte qui n'était pas prête à s'ouvrir. La réponse de la fenêtre d'Overton est contre-intuitive : il ne faut pas commencer par l'idée que vous voulez faire adopter. Il faut d'abord cartographier où en est la conversation.
Impensable. Votre travail n'est pas de défendre l'idée. C'est de créer les conditions pour qu'elle devienne un sujet de débat légitime. Des chercheurs qui publient, des cas étrangers qui circulent, des événements qui ouvrent des brèches. En 2018, proposer de supprimer les bureaux fixes et de ne plus jamais revenir au bureau était une hérésie managériale. Quelques articles sur le travail nomade dans les entreprises scandinaves ont commencé à faire circuler l'idée.
Radicale. Votre travail est de légitimer l'idée. Pas nécessairement de la défendre vous-même — montrer que des gens sérieux, dans des contextes comparables, la défendent avec des arguments solides. Le but : faire passer l'idée de «bizarre» à «discutable». En 2019, quelques grandes entreprises technologiques annoncent des politiques de télétravail permanent. L'idée devient cartographiable.
Acceptable. Vous pouvez entrer dans le débat directement. Arguments, données, expériences pilotes. La résistance est encore présente, mais elle n'est plus viscérale. C'est là où se trouve aujourd'hui le débat sur le retour au bureau dans la plupart des organisations — un terrain négocié, pas encore stabilisé.
Courante. Votre rôle change complètement. Il ne s'agit plus de persuader, mais d'accompagner la mise en œuvre. Les résistances qui subsistent sont individuelles, pas collectives. C'est le territoire de la gestion de changement classique.
Une des tactiques les plus souvent associées à la fenêtre d'Overton, c'est celle de l'ancrage extrême : pour rendre une idée acceptable, on commence par en proposer une beaucoup plus radicale, de sorte que l'idée visée semble soudainement raisonnable en comparaison.
En psychologie comportementale, cet effet est bien documenté. Daniel Kahneman a montré comment la première proposition dans une négociation influence profondément toutes les évaluations qui suivent. Le principe semble séduisant appliqué à la gestion de changement — et il fonctionne réellement sur la perception immédiate.
Mais attention : efficace à court terme, potentiellement destructeur à moyen terme. Si la tactique est perçue — et elle l'est souvent —, elle détruit la confiance et crédibilise les voix qui dénoncent la manipulation. Dans un contexte organisationnel, perdre la confiance de vos équipes coûte infiniment plus cher que ce que vous avez gagné tactiquement.
L'ancrage peut être utile pour ouvrir une conversation, pas pour conclure une négociation.
Ce que la fenêtre d'Overton enseigne aux gestionnaires les plus habiles, c'est que le changement durable ne s'impose pas — il se prépare. Et cette préparation est un travail de communication qui s'étale dans le temps.
Les précédents internes. Rien ne légitime une idée comme le fait qu'elle ait déjà été testée quelque part dans votre organisation. Une expérience pilote réussie dans un département devient un argument béton pour l'ensemble de l'organisation. Ce n'est plus une idée abstraite : c'est quelque chose qui s'est fait ici.
Les pairs influents. Dans toute organisation, certaines voix ont plus de poids que d'autres pour déplacer la fenêtre. Ce ne sont pas nécessairement les plus hauts dans la hiérarchie — souvent, ce sont les personnes les plus respectées par leurs collègues. Les identifier et les engager tôt dans la réflexion est une des stratégies les plus puissantes pour préparer le terrain.
Le langage. Les idées progressent souvent en changeant de nom. Ce qui s'appelait «contrôle» est devenu «imputabilité». Ce qui s'appelait «réduction de personnel» est devenu «optimisation de la structure». Le choix du vocabulaire n'est pas de la manipulation : c'est de la communication stratégique. Les mots signalent l'intention, et l'intention influence la réception.
Les événements extérieurs. Les gestionnaires intelligents regardent le monde non pas comme une distraction, mais comme un signal : quels événements sont en train de déplacer la fenêtre dans votre secteur? Quelles idées que vous défendiez depuis des années viennent soudainement d'entrer dans le champ de l'acceptable?
La question éthique est simple : cherchez-vous à déplacer la fenêtre parce que le changement est dans l'intérêt des personnes concernées? Ou cherchez-vous à contourner leur jugement?
Rappelons que cet outil est né dans un think tank libertarien, et qu'il a été perfectionné par l'extrême droite américaine et européenne pour normaliser des idées qui n'auraient jamais survécu à un débat honnête. La mécanique est puissante. Préparer le terrain pour qu'une idée soit reçue équitablement, c'est de la communication stratégique. L'utiliser pour faire adopter quelque chose que les gens n'auraient pas voulu avec toute l'information, c'est exactement ce que Bannon a fait. La ligne est parfois mince. Et dans une organisation, vos équipes la sentent avant même de pouvoir la nommer.
Mobilité ou immobilisme? Deux mille ans plus tard, Galilée viendra départager ces deux écoles de pensée par l'observation du mouvement perpétuel de la Terre sur elle-même, et autour du Soleil. Le match se termine donc en 1610 avec la victoire du changement permanent, donc d'Héraclite.
Or, limiter Parménide et Héraclite au mouvement, c’est se priver d’une pensée beaucoup plus riche, bien plus intéressante, et plus profonde encore. Nous avons eu recours aux lumières de plusieurs philosophes pour éclairer notre chemin. D'abord l'illustre Jean-François Mattéi (1941-2014). Ensuite Barbara Cassin, philosophe spécialiste des philosophes grecs et enfin André Laks, professeur de philosophie ancienne à la Sorbonne.
Évidemment, il convient de mesurer les innombrables altérations de ces textes primitifs à travers l'histoire — des fragments qui nous sont parvenus partiels et transformés. Cependant, ils ont occupé les pensées de Platon, Aristote, Hegel, Heidegger, Nietzsche et bien d'autres... et préoccupent de nombreux philosophes contemporains. Ils ont le mérite de susciter chez le lecteur curieux des questionnements profonds et utiles.
Loin de moi la prétention d'ajouter une pierre à cet édifice. Je propose l'emprunt, la ruse. Je veux aller chercher à la source même, de nouveaux mécanismes, de nouvelles métaphores. Cet article s'adresse aux curieux. À celles qui n'ont pas peur des acrobaties. À ceux qui n'ont pas peur du feu. Bref, à celui ou à celle qui a déjà osé lire jusqu'ici.
D’abord, Parménide était le penseur du Tout, comme Pythagore avant lui. Il y avait l'être... et rien d’autre. Le non-être ne pouvant être amené à notre conscience est inexistant. Le fragment 6 trop simplement traduit par L'être est, le non-être n’est pas a donné beaucoup de travail aux philosophes, aux philologues et aux traducteurs, qui continuent encore aujourd'hui à se contredire sur le sens profond de cette pensée fondatrice.
Pour Parménide, il n'y a que deux voies possibles : est et n'est pas. Mais est — du grec esti — peut prendre plusieurs formes : il existe, il est possible, il y a. Aussi, la tautologie (une formule qui ne peut être que vraie) pose que si A est A, alors A est parfaitement A, et A n'est rien d'autre que A — c'est la naissance des axiomes mathématiques.
Le Tout se définit donc par tout ce qui ne change pas, par ce qui est permanent, immuable. C'est ce qui est vrai et qui restera vrai. C'est l'identité ontologique : ce qui se définit dans l'absolu. Dès lors, ce qui change n'est qu'opinion (doxa), éphémère et sans valeur. Dans le Tout se trouve l'idée d'une Unité de tout l’univers dans tous les temps. Le passé, le présent et l’avenir cohabitent... avec l'impossibilité du devenir.
Si la traduction pose quelques problèmes aux philosophes encore aujourd'hui, on peut aussi retenir que nommer le néant... c'est le détruire, puisque c’est lui donner une consistance. Le néant est donc impossible, impensable. Tout est, et c'est tout. Dès lors, Parménide propose un Tout « tout puissant », immuable, impossible à changer. Rien ne change jamais, donc.
Pour sa part, Héraclite propose l'idée que Tout est composé d'opposés. La route monte et descend en même temps, selon le sens qu’on prend. Le fleuve dans lequel on se baigne change chaque seconde, mais reste le même et unique fleuve qui porte pour cette raison le même et unique nom. Pour Héraclite le monde est tissé de contraires pour mieux affirmer son unité, et Héraclite fustige les hommes incapables de reconnaître ces jeux de contraires logiques, les privant alors du pouvoir de raisonnement.
Héraclite était le philosophe qui pleure, sans cesse effondré par l'attitude des hommes qui ne savaient que faire la guerre. Nietzsche en avait fait le philosophe du combat, en révélant que si Tout contient des contraires, il faut les départager. Une lutte s'enclenche alors entre ces deux possibles, pour que l'un des deux l'emporte. Pour Héraclite, tout est un combat potentiel pour décider d’une voie à prendre plutôt qu'une autre. Tout est alors composé d’un changement à venir, d’un état de transformation permanent. Tout change tout le temps, donc.
Tout devenir naît de la lutte des contraires. Les qualités définies qui nous semblent durables n’expriment que la suprématie momentanée de l’un des combattants, mais la lutte n'en continue pas moins, le combat se poursuit éternellement. C'est en fonction de ce combat que tout ce qui se produit advient et c’est précisément ce combat qui révèle la justice cohérente et sévère, liée à des lois éternelles. — Nietzsche.
C'est l'harmonie des paradoxes. Ce qui est différent de soi-même s’accorde avec soi-même. Et celui qui s'enferme dans son propre raisonnement est un rêveur isolé qui ne participe pas au raisonnement collectif. Ce penseur recroquevillé sur lui-même porte un nom en grec ancien : l'idiot. L'idiot n'est pas l'imbécile. L'idiot est celui qui ne croit que lui-même. Et la langue française a conservé une trace de ce sens, avec l'idiosyncrasie — une disposition à réagir de manière particulière aux agents extérieurs. Ici, particulière doit être pris dans le sens d'individuel.
Déjà à l'époque, jeu de dualités n'était pas nouveau. Sans rien ôter à ces deux fondateurs de la pensée, il convient tout de même de rendre à Pythagore ce qui lui revient. Sur le fronton de l'École qu'il créa à Crotone, on pouvait lire "Dieu a tiré la Terre du néant comme il a créé le Un du rien pour créer la multitude". Au-delà de l'incroyable poésie de cette sentence, on y perçoit toute la richesse philosophique qu'elle porte en elle. C'est le début du Tout, de l'unité, du rien et de tout ce qu'il y a entre eux.
Ces questionnements du rien et du tout, de l'unité et du multiple, du vrai et du possible, de l'harmonie et des opposés, ont forgé à la fois notre vision du monde, notre raisonnement, notre langage et nos mathématiques. Ils sont la source de tout. Par exemple, puisqu’il existe une frontière entre quelque chose et rien, que se passe-t-il précisément à cet endroit? Le calcul infinitésimal d’Archimède, Newton et Leibnitz répondra à cette question. Et puisqu’il existe plusieurs possibilités d’un présent à venir, comment s'organise ce choix? Ce sont ici les bases des mondes possibles de Leibnitz...
Pour finir, il est cocasse de souligner que l'unité (le Tout) est composée d'unités (les objets) qui se mesurent... avec des unités (poids, taille, etc.) Les unités des unités de l'unité. Un seul mot pour décrire l'infiniment grand et l'infiniment petit, le pourquoi, le quoi et le comment. Voilà une pensée parfaitement parmédienne, héraclitéenne... et pythagoricienne.
Le Québec compte un nombre significatif de conseils d’administration (C.A.) au sein de ses entreprises et organisations. Un sondage* mené auprès de 300 PME québécoises (entre 20 et 250 employés) révèle qu’un peu plus du tiers (34%) d’entre elles possèdent un conseil d’administration formel, 8 % un comité consultatif, et 7% les deux structures en parallèle... alors que la plupart n'avait aucune obligation légale de le faire! Autrement dit, près de la moitié de ces PME ont mis en place des mécanismes de gouvernance de leur propre gré. C'est dire comme la culture de la gouvernance est bien ancrée au Québec, y compris dans les plus petites entreprises!
Ailleurs, on observe souvent que les petites entreprises ne se dotent d’un C.A. que lorsqu’un investisseur l’exige formellement. Or ici, la plupart l’ont plutôt mis en place de leur propre initiative, pour soutenir le développement stratégique, améliorer la crédibilité de l’entreprise ou accéder à de l’expertise externe*. Mais pour quoi faire exactrement?
Qu’il s’agisse d’une transformation stratégique, d’un virage technologique, d’un repositionnement de marché ou d’une crise identitaire, les organisations sont toutes condamnées à se réinventer sans cesse. Dans ces périodes de changement, le rôle du C.A. s’avère plus que jamais déterminant. C’est le C.A. qui porte la vision à long terme et assure, par une gouvernance éclairée, que l’organisation reste sur la bonne trajectoire malgré les turbulences. Un C.A. efficace va inspirer confiance et mobiliser toute l’organisation autour d’une direction claire, tout en laissant la direction générale (DG) gérer l’exécution au quotidien. Il s’agit d’un exercice d’équilibre : le C.A. doit soutenir une ambition lucide – être à la fois stratège et ancré dans le réel.
Mais ça… c’est en théorie. Dans la vraie vie, j’ai la chance d’accompagner, d’animer ou de participer à de nombreux conseils d’administration tout au long de l’année. Et avec le temps, je me suis fait une idée plus précise de leur rôle réel. Pour illustrer ce propos, je vais m’appuyer sur une conférence TED étonnante : celle du grand designer Philippe Starck. Évidemment, il ne parle ni de nos organisations, ni de gouvernance. Mais dans sa conférence, il parle de vision, et surtout de l’angle juste à adopter pour avancer vers un avenir enviable.
Dans un anglais totalement approximatif, avec un accent à couper au couteau et un humour absolument savoureux, Starck décrit ce qu’est la vision. Cette scène est une masterclass de vulgarisation. Et, contre toute attente, un mode d’emploi redoutablement efficace pour toute organisation qui cherche à trouver l’équilibre entre l’avenir et le présent. Starck propose l’idée de la « ligne de vision » et nous offre, sans le savoir, un cadre d’une clarté désarmante pour comprendre où regarder — et comment avancer.
Starck mime un homme qui marche, qui avance. Se faisant, son regard peut changer d'angle, et cet angle va changer sa vision, donc sa capacité d'agir. Voici les différents "angles", comme autant d'approches stratégiques plus ou moins habiles. C'est parti!
Starck mime quelqu’un qui marche les yeux rivés sur ses pieds. On ne voit rien d’autre que le bout de ses chaussures. Aucun horizon, aucune perspective, juste l’instant présent. Il le dit avec humour: c’est dangereux, on risque de tomber dans un trou.
Une organisation qui reste à ce niveau vit dans le réflexe et la réaction. Elle survit, mais ne construit rien. Elle répète, éteint des feux, gère les urgences, mais n’avance pas vraiment. Elle est tellement absorbée par le présent qu’elle devient incapable d’imaginer autre chose. Elle finit par tourner en rond.
C’est la focalisation sur l’immédiat, le court terme absolu. Un C.A. « le nez sur ses pieds » s’occupe des détails du quotidien – se demandant « que fait-on lundi ? mardi ? ». Ce n’est pas son rôle : un tel C.A. sombre dans « l’angle de l’immobilisme », absorbé par l’opérationnel au point de perdre toute perspective. Cette posture de microgestion est normalement celle de l’équipe de gestion; si le C.A. la prend, il empiète sur la direction et s’empêche de jouer son rôle stratégique.

Le regard se lève légèrement : on voit les quelques pas à faire, les trous à éviter, les obstacles immédiats. C’est l’endroit de l’action tactique. Starck nous dit que c’est utile, mais que ce n’est pas là que se prend la vraie décision.
Une organisation à ce niveau commence à gérer son court terme avec plus de méthode. Elle optimise, ajuste, applique des plans. Elle avance avec prudence. Mais son regard reste à courte portée. Elle s’adapte, sans vraiment transformer. Elle corrige, mais ne reconfigure pas. Elle n’est pas en pilotage stratégique, elle est en maintien opérationnel.
Ici, on lève légèrement le regard pour se concentrer sur le prochain obstacle ou virage du parcours. Appliqué au CA, cela correspond à une préoccupation pour le court terme opérationnel – comment exécuter les décisions prises, surmonter les obstacles imminents et saisir les opportunités toutes proches. Mais ce n'est toujours pas le travail direct d'un C.A. Ce niveau exige de « regarder un peu plus bas » pour naviguer le sentier immédiat, mais cette tâche revient surtout à la direction générale qui gère l’organisation au jour le jour. Le C.A. peut s’y intéresser pour soutenir la direction, sans pour autant tenir lui-même le gouvernail des opérations.

Starck monte encore le regard, jusqu’à l’horizon. Et là, dit-il, on voit les autres. On entend leurs voix. On voit où on va, mais on reste attentif à ce qui se passe autour. C’est la vraie posture de l’intelligence collective.
Une organisation à cette hauteur de vision sait pourquoi elle avance, vers quoi. Elle a une direction, mais elle reste connectée au réel. Elle observe les mouvements de ses équipes, écoute ses clients, comprend les signaux faibles. Elle est à la fois guidée par une intention et ancrée dans le présent. Elle commence à être stratégique, humaine et lucide.
Le regard à l’horizon permet au C.A. de voir clairement où l’organisation se dirige, tout en restant attentif à son environnement proche. C’est la posture stratégique équilibrée. « Garder l’horizon en vue » signifie avoir une vision stratégique nette (la destination souhaitée), tout en restant connecté aux réalités du terrain (besoins des clients, employés, partenaires, évolutions du marché). C’est la posture de prédilection d’un C.A. en transformation : savoir où l’on va, sans perdre de vue ceux qui cheminent avec nous.

Ici, on anticipe. Starck invite à lever encore un peu le regard pour voir loin : lointain stratégique, tendances émergentes, disruptions possibles. C’est le territoire du rêve qui reste praticable.
Une organisation qui lève les yeux au-dessus de l’horizon peut imaginer demain sereinement. Elle se projète. Elle invente. Elle scénarise l’avenir, envisage plusieurs futurs. Elle anticipe des tendances, investit dans des chantiers structurants. Elle ne se contente pas de réagir au monde, elle essaie de le devancer. Elle cultive une ambition solide, une volonté de transformer, un courage de se projeter.
Ici, le C.A. prolonge sa vision au loin. Lever le regard un peu au-dessus de l’horizon place le conseil dans la planification à long terme, la perspective ambitieuse. Dans cet angle, on voit à 3, 5, 10 voire 20 ans en avant. C’est un registre dans lequel un C.A. doit se sentir à l’aise : imaginer le futur souhaité, anticiper les tendances de fond, préparer l’organisation aux défis de demain. Cette posture stimule l’innovation et l’aspiration : le conseil y puise l’ambition nécessaire pour une transformation réussie. Toutefois, il doit veiller à articuler cette vision lointaine avec des objectifs réalisables, et la communiquer de façon à ce qu’elle guide concrètement la stratégie, par blocs de planifications stratégiques de 3 ans, par exemples.

Enfin, il y a l’ultime posture : lever les yeux vers le ciel, vers le sacré ou le mythe. Starck l’appelle l’angle de Dieu. C’est beau, inspirant, mais dangereux pour le torticolis. Il y a ici le risque de se perdre dans des visions irréelles, déconnectées.
Une organisation qui vit dans cet angle ne voit plus le réel. Elle parle de mission transcendante, de changement de paradigme, d’idéal universel. C’est noble… mais souvent inutile. À ce niveau, le rêve n’est plus articulé. Il devient abstraction. Et s’il n’est pas rapidement redescendu à hauteur d’horizon, il déconnecte, il se fige. Il fait peut-être de beaux PowerPoints, mais rarement de vraies décisions.
Un C.A. ne doit pas s’égarer dans une vision abstraite détachée du réel. Les rêves doivent être redescendus à l’horizon pour être réalisés. La bonne gouvernance évite de rester figée dans cette posture : elle s’en inspire pour fixer une raison d’être et des principes nobles, puis ramène l’angle de vue à un niveau plus concret afin d’agir.

Le travail du conseil d’administration se situe juste au-dessus de l’horizon : il oriente l’organisation vers le long terme en portant le regard au-delà des préoccupations immédiates. Concrètement, le C.A. définit et porte une vision stratégique ambitieuse – se projetant sur le long terme, et prépare l’organisation aux défis de demain* Il veille ensuite à ce que l’équipe de direction reste alignée sur ces objectifs à long terme et ne se limite pas aux considérations de court terme* Un C.A. efficace inspire ainsi ambition et innovation tout en gardant les pieds sur terre : il articule la vision lointaine en objectifs concrets et supervise leur mise en œuvre, sans s’égarer dans la microgestion quotidienne qui n’est pas son rôle*En résumé, le C.A. assume un rôle de gouvernail stratégique – gardien de la trajectoire à long terme malgré les turbulences – en assurant une gouvernance éclairée et une direction claire pour l’ensemble de l’organisation.

La direction générale, de son côté, travaille entre l’horizon et l’adaptation – c’est-à-dire qu’elle fait le lien entre la vision stratégique fixée par le C.A. et la réalité opérationnelle du terrain qui nécessite adaptation. Concrètement, c’est la D.G. qui élabore le plan stratégique détaillé à partir des orientations du CA, puis qui a la responsabilité de le mettre en œuvre dans la gestion quotidienne.* Elle garde un œil sur l’horizon pour rester fidèle aux objectifs de long terme, tout en regardant le chemin immédiat afin de s’adapter aux obstacles, opportunités et imprévus du quotidien. Le travail de la D.G. est donc d’assurer l’exécution et l’adaptation : piloter l’organisation au jour le jour en prenant des décisions tactiques, ajuster les plans en fonction des réalités du terrain, et mobiliser les ressources pour atteindre les cibles stratégiques. En d’autres termes, la direction générale transforme la vision du C.A. en actions concrètes et résultats tangibles, en veillant à ce que l’entreprise progresse vers l’horizon défini tout en naviguant efficacement les défis opérationnels.*

Un conseil d’administration qui s’enlise dans le micro-détail du quotidien adopte une posture trop basse : il est alors prisonnier de « l’angle de l’immobilisme », focalisé sur l’instant présent au détriment de la vision. À l’opposé, un CA perché en permanence dans la stratégie hors sol ou les grandes idéations prend une posture trop haute : en restant figé dans « l’angle de la rêverie », il se coupe des réalités pratiques. Ces deux extrêmes sont tout aussi dangereux l’un que l’autre. À éviter : un conseil qui se comporte comme un directeur opérationnel d’une part, ou comme un comité de philosophes déconnectés d’autre part. La solution réside dans le juste milieu (horizon et un peu au-dessus), avec des allers-retours réguliers vers le terrain pour garder le sens du réel.
C’est un écueil classique en gouvernance : des administrateurs et des gestionnaires qui marchent sur les plates-bandes les uns des autres. Par exemple, un administrateur qui donne des directives directement aux employés, ou une direction générale qui décide seul de la stratégie sans passer par le CA. Ces situations sont improductives : quand les rôles ne sont pas clairement définis ou se chevauchent, cela crée des frictions et des problèmes de communication entre le conseil et la direction. L’organisation peut en souffrir grandement, surtout en phase de transformation où l’alignement doit être total. Pour éviter ce piège, il convient de formaliser les mandats de chacun, de rappeler régulièrement qui décide de quoi, et d’établir une relation de confiance où le C.A. respecte le domaine de gestion de la direction, et réciproquement.
Un C.A. peut devenir « aveugle » s’il n’a pas en son sein les compétences appropriées ou des points de vue variés. On voit trop souvent des conseils composés de personnes très dévouées, mais qui n’ont pas toutes les expertises requises par la situation de l’organisation (par exemple, aucun spécialiste du numérique alors qu’une transformation technologique est en cours). Ou bien des membres aux profils trop similaires, ce qui limite la perspective. Ce manque de diversité et de compétences nuit à la qualité des décisions stratégiques. Idéalement, le conseil doit réunir des administrateurs aux expériences et expertises complémentaires ; c’est ce qui nourrit des échanges riches et évite la pensée uniforme. Le piège inverse est de recruter des membres par convenance (amis des dirigeants, personnalités honoraires) plutôt qu’en fonction des besoins réels – cela peut introduire des biais, voire un manque d’indépendance de jugement. En bref : en période de changement complexe, assurez-vous que votre C.A. compte les talents nécessaires (finance, gestion du changement, secteur d’activité, technologie, etc.) et des voix diversifiées capables de penser hors du cadre établi.
Enfin, un travers possible d’un C.A. très ambitieux est de ne pas écouter les signaux d’alarme du terrain. Par optimisme démesuré ou par éloignement, le conseil risque de minimiser les difficultés rencontrées par la base, ou de persister dans un cap qui ne fonctionne pas. Ne pas « écouter le réel » – c’est-à-dire les données concrètes, les retours des employés, l’expérience des client·e·s – peut conduire à des décisions mal calibrées. Ce piège est particulièrement pernicieux en transformation : il peut se manifester par un entêtement dans un plan initial même quand les indicateurs virent au rouge, ou par une confiance excessive dans une vision sans accepter de la remettre en question. Pour éviter cela : instaurer une culture où les mauvaises nouvelles remontent sans crainte, où le C.A. visite le terrain, interroge les parties prenantes et reste humble face aux faits. Un conseil lucide doit rester en dialogue permanent avec la réalité pour ajuster sa vision si nécessaire.
Voici la conférence TED en question. Un vrai régal! Bon visionnement!
Nous l'avons déjà vu dans un article précédent, pour changer une habitude, il y a trois dimensions selon le Dr Fogg❶. D'abord la motivation (difficile à contrôler), ensuite la facilité (beaucoup plus efficace) et enfin le déclencheur (qui fait passer à l'action).
L'idée que l'effort crée l'obstacle n'est pas nouvelle. Pierre Louis Moreau de Maupertuis, mathématicien et philosophe français du XVIIIe, avait déjà formulé le "Principe de moindre action" — que l'on a appelé depuis le principe de Maupertuis. L'idée est simple : la nature tout entière est paresseuse, alors elle fonctionne toujours de la manière la plus efficace possible : pour toute action, elle va prendre le chemin le plus économe. Pas le plus court, pas le plus facile, pas la ligne la plus droite : la nature prend toujours le chemin le plus économe en énergie. Et ce qui s'applique à la nature physique s'applique nécessairement... à nous.
Richard H. Thaler et Cass Sunstein ont transformé ce principe universel en principe économique. À mi-chemin entre les sciences sociales et les sciences économiques, Thaler et Sunstein ont observé les biais comportementaux de leurs congénères, et ils ont largement documenté leurs trouvailles. Ils ont fini par démontrer que les humains avaient besoin d'un petit coup de pouce — a nudge, en anglais — pour prendre la bonne décision.
Le nudge est un mélange de simplification de la décision et de motivation à l'action. On parle parfois d'intervention douce, car ces coups de pouce sont imperceptibles, ludiques et le plus souvent plutôt sympathiques. On parle aussi parfois de paternalisme libertarien, mais gardons ça pour plus tard... Quoi qu’il en soit, Thaler a été récompensé pour cette démonstration (entre autres) par un prix Nobel d'économie en 2017.
L'un des exemples les plus célèbres de l'application des nudges concerne les toilettes pour hommes à l'aéroport d'Amsterdam. Pour réduire les problèmes d'hygiène causés par les éclaboussures d'urine, Aad Kieboom, un des responsables de l'aéroport a mis en place un nudge : une petite mouche dessinée et collée à l'intérieur des urinoirs, juste au-dessus du drain. Pourquoi? Parce que cette mouche donnerait un but aux utilisateurs. Conclusion? Aucun effort nécessaire + déclencheur ludique = réussite parfaite. Les éclaboussures ont diminué de 80% et les coûts de nettoyage de 6% (20 000€ par année).

La question légitime pourrait être « mais pourquoi une mouche? » Keiboom avait justifié ce choix en expliquant que l’idée était venue 20 plus tôt d’un homme de maintenance allemand qui avait servi dans l’armée dans les années 60, Jos Van Bedoff. Ce dernier avait déjà expérimenté des toilettes avec un point rouge, mais selon lui la mouche était une cible plus adaptée pour un humain habile : l’idée - bien militaire - de la domination de l’homme sur un insecte avait un certain sens. Mais encore une fois, ce nudge n’était pas nouveau : cent ans plus tôt, on avait déjà vu le même stratagème avec... une abeille. Les temps changent...
Ces détails seraient totalement anecdotiques si les nudges ne relevaient pas autant de la psychologie sociale des humains. Ils démontrent bien la subtilité de cet outil d'influence. D'ailleurs, il existe plusieurs catégories de nudges et des centaines d’exemples tantôt rigolos, tantôt brillants, tantôt malins et tous très stratégiques.
J’ai fait une liste plutôt fournie, en mélangeant des exemples originaux et les grands classiques des nudges — pour ces derniers, j’ai fait des recherches plus approfondies pour mieux les documenter. Voici donc les dix catégories de nudges que l'on a pu identifier.
L’idée est de choisir à la place des usagers quelle est l’option par défaut. Pour faire un choix différent, l’usager va devoir faire un effort conscient… ce qui a de grandes chances de ne pas arriver. Même une simple croix dans une case est un effort.
Le don d’organes est l’exemple le plus connu dans le monde des nudges❷. Une étude a comparé trois systèmes de don d'organes : le choix obligatoire, le consentement présumé (opt-out) et le consentement explicite (opt-in). Les résultats suggèrent que le choix obligatoire et le consentement présumé sont plus efficaces pour générer des donneurs enregistrés que le consentement explicite. En gros, si vous avez une case à cocher, c’est un effort de trop... Alors mieux vaut bien choisir la question posée. Au Québec, c’est le opt-in qui a été choisi. Donc par défaut, vous n’êtes PAS donneur. L’Espagne est la championne du monde du don d’organes avec 46,9 donneurs par million d’habitants. La Croatie suit avec 33,6 donneurs par million d’habitants. Le Pays de Galles vient de passer de 46% à 61% de volontaires. Leur point commun? Les trois ont opté pour… le consentement présumé (opt-out).
L’idée est de donner une information qui va faciliter la prise de décision aux usagers. Par exemple, Thaler et Sunstein ont montré que la mention du nombre de calories dans les menus des restaurants incitait les clients à choisir des plats moins caloriques. C’est devenu une norme depuis.

Ici, l’objectif est de guider l’utilisateur et de présenter une vaste sélection de produits ou services de manière organisée, structurée, priorisée, voire personnalisée. Netflix est la championne du monde de la structuration d’un choix. Vous devez prendre UNE décision parmi des milliers de possibilités. Grâce à des algorithmes complexes et plutôt bien renseignés, Netflix va vous proposer tel ou tel programme, selon qu’il est « choisi pour vous », dans le TOP10 au Canada ou bien encore fraichement débarqué dans le service de streaming. Il faut savoir que ces recommandations dépendent évidemment de votre historique de visionnement (Netflix sait si vous avez regardé telle ou telle série, si vous l’avez regardée d’un coup, ou au contraire si vous l’avez abandonnée à tel épisode), mais aussi en fonction du moment de la journée, de l’endroit où vous vous trouvez, et même de l’appareil sur lequel vous la regardez. Bref, c’est le comportement qu’on mesure, et le tout est comparé à des usagers similaires, afin de prédire vos goûts, et vos attentes.

Le but de ce nudge est de fournir à l’usager un retour d'information sur le comportement pour encourager le changement. Par exemple, montrer aux gens combien d'énergie ils consomment par rapport à leurs voisins pour les encourager à économiser. Les fontaines d’eau qui vous incitent à remplir votre bouteille et qui annoncent « X bouteilles sauvées » , ou des panneaux qui vous "remercient" d'avoir respecté la vitesse permise dans les rues, avec un petit bonhomme sourire.

Le but est ici d'utiliser un système de récompense/sanction pour influencer le comportement. Par exemple, offrir des réductions sur l'assurance-santé pour ceux qui font de l'exercice régulièrement.
L'idée est de créer un lien émotif pour pousser à l'action. Une étude menée par l'Université de Stanford a montré que l'utilisation d'images de bébés dans les lettres de rappel pour les vaccinations incitait les parents à faire vacciner leurs enfants❸. On peut aussi vouloir créer un choc émotif. Pensez aux photos terribles sur les paquets de cigarettes. C'est également un nudge affectif, mais à l'envers.

Le concept est d'indiquer à l'usager qu'en posant tel geste, il va se conformer à la norme. C'est en général une confirmation rassurante d'appartenance à un groupe social : le fameux "tout le monde le fait". Par exemple, une étude menée par l'Université de Californie a montré que l'affichage de messages indiquant que la majorité des clients d'un hôtel réutilisent leur serviette incitait les clients à réutiliser les leurs❹.
Comme son nom l'indique, il s'agit ici de simplifier les choses pour aider l'usager à prendre la bonne décision. Une étude menée par l'Université de Chicago a montré que la simplification du formulaire de demande de bourse incitait davantage d'étudiants à postuler.❹
Ici, il s'agit de provoquer l'action en proposant l'option la plus proche des besoins (ou désirs) de l'usager. Une étude menée par l'Université de Stanford a montré que la personnalisation des messages de rappel pour les rendez-vous médicaux incitait davantage de patients à se présenter à leur rendez-vous.
L'idée est simplement de rendre une action plus ludique qu'à l'habitude. Volkswagen a signé une campagne appelée "Fun Theory" dans le métro de Stockholm. Elle invitait les passants à utiliser les escaliers "ordinaires" plutôt que les escaliers roulants. Pour ce faire, les marches ont été transformées en piano géant. Ce nudge aurait entrainé une augmentation de 66% de l’utilisation des escaliers❺.
Il existe de multiples usages des nudges, notamment en ce qui concerne l'influence et la politique. Nous avons même écrit un article à ce sujet. Il convient de faire preuve de mesure, de prudence et d'intégrité quand vient le temps de faciliter la vie des usagers, car la manipulation n'est pas loin.
Alors, à vous de jouer, mais attention! Vous jouez avec l'esprit des usagers, donc avec le feu, et l'éthique. Utilisez les coups de pouce en gardant cela à l'esprit, et dans son intention originelle : vous ne devez pas les utiliser contre les gens, mais dans leur intérêt.