




C’est en 2016 que Perrier Jablonski a embauché sa première ethnographe. Sabrina Tremblay, d’abord venue observer « L’émergence d’une nouvelle organisation créative » chez nous (le nom de son mémoire de maîtrise) pour HEC. Mais Sabrina avait été envoyée chez nous par Jean-Sébastien Marcoux, le plus grand anthropologue de la consommation au Québec. Il allait devenir (sans le savoir), le parrain influent et bienveillant de notre jeune firme.
Une expérience si bouleversante pour nous qu’elle allait changer le cours de notre jeune histoire, et réorganiser le travail en équipes-trios : ethnographe, stratège, chargée de projets. C’est encore le modèle que nous utilisons aujourd’hui.
Pour chaque projet, on sélectionnait un groupe de participants, on menait des entrevues d’une heure, puis on transcrivait à la main. Pour une heure d’entrevue, il fallait compter une heure et demie de transcription. Donc… 2h30 par entrevue. C’était cher et laborieux, mais la qualité des observations que nous faisions comblait largement l’investissement.
Il fallait cependant avouer qu’au fil des projets qui grandissaient, ce temps de traitement devenait colossal. À l’époque, nous avions cherché des outils commerciaux de transcription. Les plus fiables — les mêmes utilisés par les tribunaux — coûtaient des milliers de dollars par licence. Hors de portée pour notre usage. Puis est arrivé… Whisper.
En septembre 2022, OpenAI publie Whisper — un modèle de transcription automatique entraîné sur 680 000 heures d’audio multilingue. Open source, sous licence MIT : gratuit, modifiable, installable localement sur n’importe quel ordinateur. Quiconque voulait transcrire un fichier audio sans l’envoyer dans le cloud, pouvait le faire gratuitement.
Pour Perrier Jablonski, ç’a été un basculement. Les heures passées à transcrire mécaniquement ont pu être réparties dans ce qui compte vraiment : plus d’entrevues, plus d’analyse, plus de livrables. L’ethnographie que nous pratiquions de façon presque artisanale s'est largement professionalisée… Et nos projets se sont multipliés. Le plus beau? Cette automatisation a permis à Perrier Jablonski de démocratiser l’anthropologie. Elle est devenue accessible à des organisations qui n’en n’auraient jamais eu les moyens auparavant. Les PME, les OBNL, les équipes à petit budget pouvaient enfin s’offrir du vrai terrain, de vraies observations, de vrais insights.
Une vraie révolution, je vous dis ! Mais...
Pendant plus de trois ans, nous avons utilisé le modèle Whisper via l’application MacWhisper. Un bon outil. Fiable, local, économique, rapide. Mais au fil des projets, ses limites sont devenues évidentes pour notre usage.
D’abord, la précision dans le temps. MacWhisper place les mots dans des blocs de quelques secondes. Pour lire une transcription, c’est suffisant. Pour analyser une entrevue précisément, il faut savoir où chaque mot commence et finit… à la milliseconde.
Ensuite, il ne sait pas qui parle. Deux voix pendant 45 minutes produisent un seul bloc de texte. La diarisation — séparer les voix — est arrivée en bêta fin 2025, tard et encore imparfaite. Dans une entrevue qualitative, savoir qui dit quoi est la condition minimale.
Enfin, les voix séparées restent étiquetées « Speaker 1 / Speaker 2 ». Des numéros anonymes. Pour une firme qui conduit des centaines d’entrevues par année, avec les mêmes ethnographes, renommer à la main chaque fichier est un travail que la machine devrait faire seule.
Ça, c’est sans parler des bugs importants qui nous forçaient à repasser à travers chaque entrevue méticuleusement. Nous avions besoin d’un meilleur outil, alors nous l’avons construit.
La première version de Boris était donc un outil de transcription. Nous sommes partis d’un modèle plus récent que Whisper, WhisperX, développé par l’équipe Visual Geometry Group d’Oxford (Bain et al., 2023), dont nous avons utilisé les nouvelles fonctionnalités à fond, avant de lui adjoindre des fonctionnalités-maison.
D’abord, la diarisation : séparer les voix avant même de transcrire. Un modèle analyse le signal pour repérer qui parle quand, en comparant les empreintes acoustiques au fil de l’enregistrement — sans comprendre les mots. Résultat : un bloc de texte par personne, au lieu d’un monologue mélangé.
Ensuite, l’alignement forcé. Whisper transcrit par phrases de quelques secondes ; Boris ajoute une deuxième passe qui recale chaque mot à la milliseconde exacte d’apparition dans l’audio. On peut alors retrouver, dans le signal brut, le moment précis où un mot a été prononcé — et tout ce qui l’entoure : intonation, pause, hésitation.
Enfin, l’identification nominative. Les voix des ethnographes de Perrier Jablonski sont stockées une fois dans l’application. À chaque nouvelle entrevue, Boris reconnaît leur empreinte et les étiquette par leur nom réel — puis filtre leurs interventions, parce que ce qui nous intéresse, c’est les propos du participant, pas ceux de l’intervieweur.
Et toutes ces opérations sont effectuées en local, sur nos Mac, sans jamais se promener sur le réseau — pour une confidentialité absolue. Si on devait le commercialiser, Boris battrait déjà tous les outils du commerce :
Nous n’allions pas nous arrêter en si bon chemin. En développant la transcription de Boris, nous avons réalisé qu’on pouvait synchroniser chaque mot avec le signal audio brut. Cela ouvrait deux portes : analyser ce que les gens disent avec une précision inédite, et analyser comment ils le disent — c’est-à-dire leur voix elle-même.
Nous avions construit le meilleur moteur de transcription disponible sur le marché… Mais venions d’ouvrir la voie à un tout nouveau type d’analyse…
Quand on termine 20 entrevues sur le même sujet, on a besoin d’un outil visuel pour illustrer ce que les participants nous ont dit. Un outil que vous connaissez bien : le nuage de mots. Les mots les plus fréquents apparaissent en gros, les plus rares en petit. En un regard, on voit le territoire lexical du groupe. Mais pour qu’un nuage de mots soit lisible — et utile — il faut toujours faire un peu de ménage.

Le premier geste, c’est d’écarter les mots qui n’apportent rien : « de », « que », « est », « avoir », « chose ». Les linguistes les appellent des stopwords — des mots vides. Ils sont partout, ils noient tout. Les retirer, c’est déjà voir plus clair.
Le deuxième geste, c’est la lemmatisation : ramener chaque mot à sa racine. « Méritaient », « méritera », « méritent », « mériterait » deviennent tous « mériter ». Sans ça, chaque variante compte pour un mot distinct et le signal s’éparpille. Après ce nettoyage, une entrevue de 45 minutes qui contenait 3 800 mots bruts en contient environ 1 700 analysables. Sur un projet de 20 entrevues, on passe de 76 000 à 34 000.
Le nuage de mots obtenu est un portrait lexical du groupe : ce qui habite leurs pensées, ce qui revient dans leurs bouches, ce qui tient le terrain mental.
Mais un nuage seul ne dit pas tout. Les mots qui reviennent le plus souvent sont souvent les plus attendus — « mission », « culture », « équipe » dans un mandat organisationnel. Pour aller plus loin, il fallait chercher ailleurs : d’abord identifier le champ lexical vraiment spécifique à chaque participant, et ensuite… les mots qu’on aurait attendus mais qu’on n’a pas entendus…
Analyser les mots à ce niveau de précision est totalement inédit. Pour un client, c’est comme passer du 720P au 8K d’un seul coup. Cerise sur le sundae, à ce stade de l’analyse, aucune donnée n’a quitté nos machines, tout se fait 100 % en local, tout 100 % confidentiel.
Pendant une entrevue, la voix d’un participant transporte bien plus que des mots. Elle accélère quand un sujet devient sensible. Elle baisse d’un ton quand la confiance s’installe. Elle tremble imperceptiblement quand une émotion remonte. Admettons que ces signaux soient identifiables, peut-on réellement les interpréter?
L’étude de ces signaux s’appelle la prosodie. Jusqu’ici, elle appartenait à d’autres mondes : les phonéticiens qui décrivent les langues, les cliniciens qui diagnostiquent la dépression par le timbre de la voix, les ingénieurs qui entraînent des assistants vocaux. En 2023, Van Rijn et Larrouy-Maestri ont publié dans Nature Human Behaviour une analyse portant sur plus de 3 000 minutes d’enregistrements issus de corpus mondiaux. Leur conclusion : sept facteurs acoustiques — qualité vocale, intensité, hauteur, rythme, fluctuations rapides et aléatoires (shimmer), variation du pitch et spectre fréquentiel — expliquent à eux seuls 57 % de la variance émotionnelle dans la voix humaine. Sept facteurs mesurables? Parfait! C’était notre nouveau brief!
C’est la deuxième révolution proposée par Boris. L’application échantillonne chacun de ces signaux toutes les 500 millisecondes, en continu, sur toute la durée de l’entrevue. Le résultat : 7 signaux mesurés toutes les 0.5 secondes, pendant 45 minutes — plus de 37 800 points de données signaux potentiels par entrevue. Une véritable mine d’informations !
Chaque mesure est comparée à la ligne de base propre au locuteur — ses propres moyennes de débit, d’intensité, de hauteur. Boris ne confond pas quelqu’un qui parle naturellement fort avec quelqu’un qui s’emballe en parlant fort tout à coup. Un signal n’est pertinent que s’il est inhabituel pour cette personne en particulier.
Un raclement de gorge avant de répondre à une question sur la direction ? Un chuchotement au moment où le participant mentionne un collègue ? Un soupir presque inaudible quand l’ethnographe aborde le sujet de la gouvernance ? Ces événements, qui ne sont ni des mots, ni de la prosodie… Mais sont aussi des données précieuses pour un ethnographe.
Alors nous avons implémenté la détection de 18 types d’événements paralinguistiques : plusieurs niveaux de rire, les soupirs, les sanglots, les applaudissements, les exclamations, les chuchotements — c’est un système semblable à celui d’Apple, qui détecte les sons environnants pour les personnes malentendantes (réglages > accessibilité). Nous avons simplement utilisé le modèle de Google YAMNet, entraîné sur plus de 2 millions de clips audio. Il contient 521 classes sonores, mais nous n’avons choisi que les 18 qui étaient pertinentes pour Boris.
Chaque événement est horodaté, scoré, filtré et intégré à l’analyse comme signal à part entière.
Cette analyse ultra fine se fait au même rythme que l’analyse prosodique, toutes les 500 millisecondes.

La mémoire de travail humaine traite entre 5 et 9 éléments à la fois — psychologie cognitive (Miller, 1956). Un ethnographe qui conduit une entrevue, doit maintenir le lien avec le participant, formuler des hypothèses, réorienter ses questions ou son enquête, prendre des notes… il a déjà beaucoup de travail et il ne peut pas traiter 139 000 signaux. Maintenant… il peut.
En d’autres termes, Boris analyse 25 types d’événements (7 signaux prosodiques et 18 sons) deux fois par seconde. Ces 139 000 points de données par entrevue représentent près de 2 800 000 mesures traitées, comparées entre elles, et interprétées pour un projet de 20 entrevues chez Perrier Jablonski.
Souvenons-nous que dans le passé (hum… il y a 3 ans), un ethnographe avait besoin de 1h30 pour transcrire 1h d’entrevue. Non seulement, ce temps est désormais réduit à néant, mais en plus, il offre une précision d’analyse totalement inédite dans notre milieu.
Chez Perrier Jablonski, nous avons toujours séparé les observations ethnographiques et les observations éditoriales, faites par le stratège. L’un écoute et analyse. L’autre propose des pistes réflexions, identifie des tensions à dénouer, formule… L’un est un radiologue qui scanne, l’autre est un médecin de famille qui interprète.
Mais avec Boris, nous avons inventé une troisième voie. Un nouveau genre d’observations que nous avons appelées synthétiques, qui consiste en une analyse croisée des couches sémantiques, prosodiques et sonores.
Ces croisements permettent des observations impossibles jusque-là, qui s’ajoutent aux précédentes :
L’arc émotionnel. Boris agrège les signaux prosodiques et les événements sonores par fenêtres de deux minutes, et trace la courbe d’intensité de la conversation. L’ethnographe voit d’un coup d’œil où l’entrevue a basculé. En superposant les 20 courbes d’un projet, on voit si un même moment du guide fait réagir tout le monde.
Les contradictions internes. Boris repère les moments où un participant dit une chose en début d’entrevue et son contraire en fin. Il met les deux énoncés côte à côte, avec leur signature prosodique, et on identifie quel énoncé porte la charge émotionnelle la plus forte (travaux de Festinger sur la dissonance cognitive, 1957).
Le non-répondu. Boris croise le guide d’entrevue avec les verbatims pour repérer les questions esquivées, contournées, ou restées sans réponse. Une matrice montre, d’un coup d’œil, quelles questions ont été évitées par quels participants. La prosodie autour du moment d’esquive — silence, raclement de gorge, accélération du débit — enrichit le diagnostic.
Les verbatims marquants. Boris sélectionne les 15 à 20 citations les plus puissantes du corpus en combinant trois critères : la richesse sémantique du segment, l’intensité prosodique par rapport à la baseline du participant, et la présence d’un événement sonore. Les citations sortent prêtes pour une présentation client, avec leur contexte et leur score.
Le miroir linguistique. Boris mesure si un participant commence à utiliser les mots de l’ethnographe au fil de l’entrevue — un indicateur classique d’accommodation linguistique (Niederhoffer et Pennebaker, 2002). Il trace la convergence lexicale dans le temps et signale les entrevues où le participant semble s’aligner sur le langage de l’intervieweur plutôt que de parler avec ses propres mots. C’est un outil d’auto-critique : l’ethnographe voit son propre effet sur le participant et peut disqualifier une entrevue (mais ce n’est jamais arrivé encore).
Si Boris mesure tout, il ne signale pas tout. Cela représenterait un volume d’information délirant, contreproductif pour l’équipe. Alors il filtre. Seuls les signaux qui dépassent un seuil de significativité — une variation suffisamment inhabituelle pour ne pas être attribuable au hasard — sont retenus et présentés à l’ethnographe.
Une observation synthétique est une observation que seule la machine peut détecter, mais que seul un humain peut interpréter. C’est le mariage parfait humain-machine.
Boris croise les données prosodiques, sémantiques et paralinguistiques de chaque participant pour le positionner sur une matrice comportementale. Les axes de cette matrice naissent d’une conversation entre l’ethnographe et la machine.
Parfois, c’est l’ethnographe qui initie. Après avoir conduit les entrevues, après avoir senti le terrain, il formule une hypothèse : « Je crois que ce groupe se divise entre ceux qui résistent par loyauté et ceux qui résistent par épuisement. » Boris va chercher dans ses données les marqueurs qui correspondent, et positionne chaque participant.
Parfois, c’est Boris qui propose. À partir de l’ensemble des données qu’il a analysées — prosodie, sémantique, événements sonores — il formule une hypothèse sur les deux variables fondamentales qui structurent le groupe. L’ethnographe examine, ajuste, affine.
Dans les deux cas, le profil émerge de cette conversation — ni purement intuitif, ni purement algorithmique. L’ethnographe ressent. La machine détecte.

Pour la couche d’analyse en langage naturel, nous avons choisi Claude, d’Anthropic (après de nombreux tests). Mais un modèle de langage, aussi performant soit-il, reste généraliste. Livré à lui-même, il identifie admirablement, il organise parfaitement, il synthétise merveilleusement, il rédige efficacement… mais il ne pense ni comme un ethnographe, ni comme un stratège…
C’est pourquoi nous avons entraîné Boris sur notre propre corpus de connaissances. Plus de 200 articles et des centaines de références bibliographiques que Perrier Jablonski a accumulés au fil des dix dernières années sur les sujets qui préoccupent nos clients. Le modèle a appris comment nous formulions une observation, comment nous structurions une tension, comment nous nommions un paradoxe.
J’ai déjà insisté sur l’importance des corpus de connaissances des organisations. J’en parle dans mon deuxième bouquin (Les défis) publié en 2024, mais aussi dans l’article « Corpus, cursus, campus, caucus. Apprendre, fois quatre. »… Maintenant, vous comprenez pourquoi un corpus bien organisé a une valeur inestimable quand on se lance dans un projet technologique…
Pour poursuivre métaphore de la radiologie, Boris est un peu comme un IRM. Une machine d’une précision redoutable, capable de voir ce que l’œil nu ne voit pas. Mais un IRM ne pose pas de diagnostic. Il faut un radiologue pour lire les images, un médecin pour interpréter les résultats, et un patient qui a été orienté par les bonnes questions cliniques. Sans ça, l’IRM produit des images, mais pas des réponses.
C’est la même chose avec Boris. Si vous menez une entrevue sans méthode, que vous ne savez pas formuler une question ouverte, si vous orientez les réponses ou que vous ne savez pas créer un climat de confiance — Boris va quand même nous sortir une analyse. Il va produire des chiffres, des courbes, des observations. Mais elles ne vaudront rien.
C’est pourquoi nous avons décidé de ne pas commercialiser Boris, et de le garder pour nous… pour l’instant.
Il restait un dernier détail — et non des moindres — à régler. On l’a vu plus haut, la plupart des logiciels de transcription envoient vos fichiers audio sur des serveurs distants — c’est-à-dire sur internet, sur des ordinateurs qui appartiennent à d’autres entreprises, souvent aux États-Unis. Pour nous, impossible d’accepter une telle entorse à l’éthique et à la confidentialité qui nous chérissons tant chez Perrier Jablonski. Il fallait régler ça.
Avec Boris tout le traitement se fait directement sur notre ordinateur, dans nos bureaux… à une limite près : l’envoi des données à Claude. Nous avions besoin de contourner cet obstacle, alors nous avons inventé une méthode que nous avons appelé l’anonymisation de bout en bout.
Avant chaque envoi — sans exception — tous les noms de personnes, d’entreprises, de lieux, les montants et les coordonnées sont automatiquement remplacés par des codes incompréhensibles. Ainsi, tout ce qui est envoyé sur le réseau est crypté. Le modèle reçoit « P-x7k2m9 travaille chez O-m4r7x2 depuis T-w8k3 ans » au lieu de « Marie travaille chez Bombardier depuis 12 ans ». Claude analyse donc les bonnes situations, mais sans savoir de qui il s’agit. Quand il nous renvoie ses conclusions, notre moteur remplace les codes par les bonnes entités, et le tour est joué!
Aucun autre outil d’analyse qualitative sur le marché ne propose ce niveau de protection.
Grâce à Boris, des organisations qui n’avaient pas les moyens de financer une ethnographie complète peuvent maintenant y accéder. Boris traite une entrevue en deux fois moins de temps qu’elle n’a duré, avec une précision d’analyse totalement inédite. Des signaux faibles — ceux qui se cachent dans les silences, dans les tremblements, dans les mots qu’on ne prononce pas — deviennent visibles, mesurables, actionnables. Et pour nos clients, ça veut dire des projets plus ambitieux, plus accessibles, et des résultats d’une profondeur qui n’existait tout simplement pas avant.

On aurait pu se payer un trip techno, et faire de Boris notre joujou à nous — mais à chaque étape de sa conception nous nous sommes posé la question de l’utilité pour vous, pour nos clients.
Boris est un outil d'analyse d'entrevues développé par Perrier Jablonski. Pour les gestionnaires, voici l'essentiel : Boris écoute vos entrevues et détecte ce qu'aucun humain ne peut entendre seul. Il identifie qui parle, transcrit chaque mot à la milliseconde, analyse la voix (hésitations, accélérations, silences), repère les sons révélateurs (soupirs, rires, raclements de gorge) et croise toutes ces données pour faire émerger des observations invisibles à l'oreille nue — des contradictions inconscientes, des questions esquivées, des émotions qui contredisent le discours. Sur un projet de 20 entrevues, Boris traite près de 3 millions de signaux. Le tout fonctionne sur les ordinateurs de Perrier Jablonski, sans jamais envoyer vos données sur internet — les rares envois sont cryptés et anonymisés en trois passes. Résultat pour vous : des projets plus rapides, plus ambitieux, plus accessibles, et des recommandations stratégiques fondées sur une profondeur d'analyse qui n'existait pas avant.
ARTICLE SCIENTIFIQUE · van Rijn, P. et Larrouy-Maestri, P. (2023). Modelling Individual and Cross-Cultural Variation in the Mapping of Emotions to Speech Prosody. Nature Human Behaviour, 7, 386–396. Étude menée au Max Planck Institute for Empirical Aesthetics (Francfort). À partir de modèles bayésiens appliqués à plus de 3 000 minutes d'enregistrements multilingues, les auteurs identifient sept facteurs acoustiques — qualité vocale (12 %), intensité (11 %), hauteur et formants (10 %), rythme et tempo (10 %), shimmer (6 %), variation du pitch (4 %) et MFCC 3 (4 %) — qui expliquent 57 % de la variance émotionnelle dans la prosodie. C'est l'étude qui a inspiré les sept signaux prosodiques de Boris.
ARTICLE SCIENTIFIQUE · Miller, G. A. (1956). The Magical Number Seven, Plus or Minus Two: Some Limits on Our Capacity for Processing Information. Psychological Review, 63(2), 81–97. L'un des articles les plus cités de l'histoire de la psychologie. Miller démontre que la mémoire de travail humaine ne peut traiter simultanément qu'entre 5 et 9 éléments d'information — la raison pour laquelle un ethnographe ne peut pas, seul, traiter les 139 000 signaux que Boris génère par entrevue.
OUVRAGE · Festinger, L. (1957). A Theory of Cognitive Dissonance. Stanford University Press. Cadre théorique fondateur de la dissonance cognitive : la tension psychologique créée par des croyances ou des énoncés contradictoires. Boris l'applique en repérant les moments où un participant dit une chose en début d'entrevue et son contraire à la fin, puis en comparant la charge prosodique des deux énoncés.
ARTICLE SCIENTIFIQUE · Niederhoffer, K. G. et Pennebaker, J. W. (2002). Linguistic Style Matching in Social Interaction. Journal of Language and Social Psychology, 21(4), 337–360. Trois expériences — dont l'analyse des transcriptions du Watergate — démontrent que les interlocuteurs coordonnent inconsciemment leur usage des mots au fil d'une conversation. Les auteurs proposent une hypothèse de coordination-engagement plutôt que de rapport. Boris utilise cette mesure pour détecter la convergence lexicale : quand un participant adopte progressivement le vocabulaire de l'ethnographe, cela peut signaler une forme d'accommodation plutôt qu'une expression authentique.
ARTICLE SCIENTIFIQUE · Bain, M., Huh, J., Han, T. et Zisserman, A. (2023). WhisperX: Time-Accurate Speech Transcription of Long-Form Audio. Interspeech 2023. Développé par le Visual Geometry Group de l'Université d'Oxford, WhisperX ajoute à Whisper un alignement forcé au mot et une diarisation par empreinte vocale. C'est le moteur de transcription sur lequel Boris est construit.
MODÈLE · Gemmeke, J. F., Ellis, D. P. W., Freedman, D., Jansen, A., Lawrence, W., Moore, R. C., Plakal, M. et Ritter, M. (2017). Audio Set: An Ontology and Human-Labeled Dataset for Audio Events. IEEE ICASSP, 776–780. Le jeu de données de référence en classification audio : plus de 2 millions de clips de 10 secondes, 521 classes sonores, étiquetés par des humains. YAMNet (Yet Another Mobile Network), le modèle de Google entraîné sur AudioSet, est utilisé par Boris pour la détection des 18 classes d'événements paralinguistiques.
OUVRAGE · Brinkmann, S. et Kvale, S. (2015). InterViews: Learning the Craft of Qualitative Research Interviewing (3e éd.). Sage. L'ouvrage de référence mondiale en méthodologie d'entrevue qualitative. Brinkmann et Kvale y documentent les dynamiques de l'entrevue semi-structurée, les biais de l'intervieweur, et les stratégies d'évitement thématique — le cadre méthodologique dans lequel Boris opère.
NOTE DE CALCUL · Chiffres Boris (entrevue de 45 min). 7 signaux prosodiques + 18 classes d'événements sonores = 25 mesures échantillonnées toutes les 0,5 seconde sur 2 700 secondes = 5 400 fenêtres × 25 = 135 000 points par entrevue. Sur 20 entrevues : ≈ 2 700 000 mesures croisées et interprétées.
On entend souvent les experts nous parler de «la corrélation entre ceci et cela ». Souvent, cette simple phrase me déclenche un sourire. Tyler Vigen un étudiant à la prestigieuse Harvard Law School a une passion plus douteuse encore : collectionner les corrélations foireuses, compilées dans un site web hilarant (mais vrai), Spurious Correlations❶. On y apprend qu'il existe une corrélation quasi parfaite entre les dépenses en science, aérospatiale et technologie aux É-U et... les suicides par pendaison, strangulation ou suffocation. Comme il existe une corrélation entre le nombre de gens noyés en tombant dans leur piscine et... le nombre de films où Nicolas Cage a joué. Aussi, le nombre de personnes décédées en s'étouffant dans leurs draps de lit (600 par année aux États-Unis...) est lié à la consommation de fromage par personne. Comme le taux de divorce dans le Maine est totalement corrélé à la consommation de margarine par personne, et l'âge de Miss America est lié au nombre de meurtres par vapeur ou objets brûlants. C'est mesuré, prouvé, démontré, officiel.
Tout cela serait hilarant si on n'entendait pas aussi souvent d'autres corrélations aussi fallacieuses à longueur de journée, à longueur de déclaration politique, à longueur de nouvelles. C'est simplement que la corrélation N'EST PAS la causalité. Deux phénomènes peuvent être corrélés sans qu'il n'y ait de rapport entre les deux. Profitons-en pour éclairer le vocabulaire des liens entre les événements. Après la corrélation et la causalité, nous explorerons le vocabulaire du hasard, ou coïncidences, coups du sort et sérendipité. Tout ce vocabulaire peuple les déclarations, mais aussi les recommandations stratégiques ou les plans d'action, et il méritait un peu de ménage... Voyons, voir!
La corrélation est une mesure statistique qui détermine la relation entre deux variables (ou plus). Elle indique comment ces variables évoluent ensemble. Une corrélation positive signifie que les variables augmentent ou diminuent simultanément. Et c'est tout. On ne fait qu'observer que les deux variables se suivent... ou pas.
La corrélation est donc une mesure statistique qui détermine la relation entre deux variables, tandis que la causalité est un lien qui affirme qu'une variable agit sur une autre et il est fréquent qu'on observe une confusion entre ces termes. Par exemple, l'effet cigogne illustre bien le problème : il existe une corrélation entre le volume de nids de cigogne et le volume de naissances humaines, mais cela ne signifie pas que les cigognes apportent les bébés. En réalité, les deux phénomènes partagent une cause commune : les cigognes nichent en milieu rural, où les naissances sont plus importantes.
La causalité est la relation qui s'établit entre une cause et son effet, le lien qui les unit. En science, en philosophie et dans le langage courant, la causalité désigne la relation de cause à effet. La cause est ce qui produit quelque chose, ce qui en est à l'origine, tandis que l'effet est ce qui en est la conséquence. Si on compare le nombre d'armes à feu aux É-U et le nombre de victimes de meurtre par arme à feu... il y a une corrélation ET une causalité. Mais ce n'est pas toujours le cas, comme nous l'avons vu plus haut.
Techniquement, la coïncidence est une rencontre fortuite de circonstances ou d'événements qui se produisent en même temps sans lien de causalité apparent. Il existe plusieurs exemples de coïncidences célèbres❷.
Parfois, ces coïncidences nous paraîssent surprenantes, intrigantes. Tellement qu'on y voit l'oeuvre d'un esprit supérieur, d'une main mystérieuse qui serait «aux commandes». C'est ce que j'appelle les coups du sort.
Le coup du sort est un hasard «louche», plus fort que le hasard normal, comme si c'était possible. C'est le clin d'œil du destin poussé à son paroxysme. Par exemple :
Les exemples sont nombreux et toujours très impressionnants. Mais parfois, le sort peut vous jouer un tour... pour le mieux.
C'est le nom que notre époque a donné au hasard quand il fait bien les choses... alors que vous étiez en train de faire autre chose. Encore une fois, les exemples sont nombreux. La sérendipité est définie comme la capacité de faire une découverte inattendue, souvent scientifique, par hasard et par sagacité, alors que l'on cherchait autre chose. C'est aussi le nom que l'on donne à l'état d'esprit du chercheur capable de se rendre compte qu'il fait une découverte dans des circonstances inattendues. Il existe des centaines de cas connus. La pénicilline, le four à micro-ondes, le velcro, l'insuline, le teflon, le post-it, le Viagra, l'aspartame, la radiographie, le GPS, la radioactivité, le LSD... toutes ces découvertes et inventions n'ont été que des accidents, alors que leurs inventeurs cherchaient autre chose... on pourrait dire «par hasard alors qu'ils cherchaient autre chose». On est loin de l'accident, car ces découvertes et inventions nécessitent également une observation attentive et une pensée critique pour comprendre leur importance.
Chez nous, c’est un combat quotidien. Quand on crée des profils (ce qu’on appelle profils, pas personas, voir l’article « Le piège des personas »), on est constamment exposés à la tentation de la corrélation. On le sait, c’est sournois. Et dangereux.
On pourrait croire que les jeunes sont désintéressés par un sujet. Ou que les retraités ont forcément plus de temps pour s’impliquer. Ou encore que les femmes sont plus empathiques et donc plus proches des enjeux RH. Ces idées-là sont confortables. Elles permettent de faire des jolis tableaux. Mais elles sont FAUSSES.
La réalité du terrain nous a appris que les comportements ne suivent pas les lignes des tableurs Excel. Des retraités déconnectés du monde municipal, on en a vu. Des jeunes passionnés par leur ville, aussi. L'âge, le genre, le niveau d'études, les revenus… tout ça peut influencer, mais ne détermine pas.
Et c’est là que notre méthode prends tout sont sens:
Parce que les données, seules, mentent souvent par omission. Elles ont besoin de contexte. D'interprétation. D’intelligence humaine.
Et parfois, il n’y a pas de cause. Juste une coïncidence. Et c’est très bien ainsi.
Il existe trois types d’empathie et chacun de ces types agit sur une partie différente du cerveau. Il faut bien se comprendre, ici: les types d’empathie ne sont pas interdépendants et chaque personne a un degré d’habilité différent par rapport à ceux-ci.
C’est l’empathie que l’on connait tous: le fait de comprendre et de reconnaitre ce que l’autre personne ressent. Quand ton meilleur ami t’appelle pour te dire qu’il a décroché son emploi de rêve et que tu lui dis : « Wow, je suis tellement content pour toi ! » (et que vous êtes sincère), c’est ce qu’on appelle de l’empathie cognitive.
On l'appelle aussi l'empathie contagieuse. Avec ce type d’empathie, nous ressentons physiologiquement et physiquement ce que l’autre ressent grâce à des signaux verbaux et non verbaux. Ici, on parle ni plus ni moins de faire l’expérience des sentiments de l’autre. Oui, c’est celle-ci qui nous permet de ressentir un bon vieux malaise lors de nos vidéoconférences.
Cette empathie peut être définie comme une réponse émotionnelle de compassion et/ou d'inquiétude provoquée par le fait de ressentir que quelqu'un d’autre est dans le besoin. En d’autres mots, c’est l’empathie qui fait agir, c’est grâce à celle-ci que les gens passent à l’action pour remédier aux problèmes des autres. Sur le plan anthropologique, il a déjà été suggéré que l’empathie compassionnelle ferait partie du mécanisme évolutif qui permettrait à l’humain de posséder la grande motivation d'aider ses enfants en cas de besoin. Si les humains n'étaient pas si intéressés à aider leurs rejetons, notre espèce ne serait pas allée très loin…
Avoir une grande habileté par rapport aux types d’empathies cognitives permet de voir le monde à travers un oeil différent et de comprendre plus simplement un point de vue. En d’autres mots, quand on reconnait que notre interlocuteur a des émotions, nous pouvons mieux communiquer avec lui, car nous avons l’habileté de comprendre sa perspective des choses. C’est ça, la beauté de l’empathie: la capacité de « voir » le cadre de pensée des autres. Selon le Center of Creative Leadership, plus notre capacité à comprendre différents cadres de pensées est grande, plus notre performance au travail sera grande. Tout ça, grâce à la communication !
Tout comme nos muscles nécessitent un entraînement régulier afin de se développer et de devenir plus forts, l'empathie se perfectionne par des exercices assidus. En effet, bien que nous ayons tous des degrés différents d’empathies selon nos expériences de vie et notre environnement socioculturel, il est possible de pratiquer nos « muscles empathiques ». Pour ce faire, plusieurs psychologues proposent la pratique de l’écoute profonde (deep listening), ce qui consiste à écouter les gens de manière sincère et authentique. Mais qu’est-ce que ça veut dire ? Les expériences démontrent que plus nous écoutons les propos de l’autre sans préparer notre réponse, plus ils ''s'ancreront'' dans la partie de notre système cognitif responsable du traitement de l'information, et plus notre cerveau s’habituera à recevoir de l’information nouvelle et étonnante de manière détendue, réceptive et calme.
Chaque type d’empathie a un bénéfice différent selon les situations. Prenons l'exemple d'un travailleur social. Celui-ci n'a pas avantage à avoir une empathie émotionnelle grandement développée (comme pleurer quand un individu pleure). Cependant, une bonne empathie compassionnelle (celle qui fait agir) est une habileté qui caractérise un bon travailleur social, car celui-ci ne doit pas seulement comprendre les émotions d'autrui, il doit aussi avoir le désir profond d'aider les gens.
Oui, l'empathie est utile dans votre vie professionnelle, mais pas n'importe laquelle dans n'importe quelles circonstances: vous devez être précis par rapport au type d'empathie que vous voulez développer.
Nous devons comprendre que... nous ne comprenons pas. L’empathie ne nous permet pas de jouer les psychologues, elle ne nous permet pas non plus de reconnaître les intentions ni même les motivations des gens face à leurs émotions. Ainsi, nous pouvons ressentir une émotion, mais cela ne veut pas dire que nous savons pourquoi la personne ressent cette émotion. En fait, plus nous comprenons nos propres émotions, plus nous pouvons comprendre leur complexité. Aussi, il peut être risqué de déduire à partir des émotions d'autrui des intentions précises, car nous pouvons nous tromper complètement, et cela affectera grandement la communication. L’écart empathique est un bel exemple de ce risque !
Dans des cas de résolution de problème, les gens iront instinctivement discuter avec la personne qui a des expériences similaires. Ce choix est basé sur le réflexe empathique. Étonnamment, selon les recherches du Harvard Business Review, ceux qui ont subi des défis dans le passé étaient moins susceptibles de faire preuve d'empathie pour quelqu'un confrontée aux mêmes défis. C’est ce qu’on appelle l'écart d’empathie. Comprendre ce phénomène est d’une importance capitale pour notre communication avec autrui, surtout en situation de résolution de problème. L’écart empathique est un phénomène psychologique qui tend à diminuer le souvenir de la gravité de certaines situations passées.
Nous sommes au début des années 50, l’armée de l’air américaine veut améliorer les performances en vol de ses escadrons. Les mensurations des pilotes ayant changé au fil des années, le temps de repenser le cockpit des appareils est venu. La mission est confiée à la Base de Wright Air Force. 4000 pilotes sont mesurés dans tous les sens, avec un objectif simple : créer le cockpit parfait, le cockpit de tous les cockpits, le cockpit qui conviendrait à tous les pilotes... autrement dit, le cockpit moyen.
Après donc un demi-million de mesures, le cockpit idéal est testé sur les 4000 pilotes. Savez-vous combien de pilotes sont rentrés parfaitement dans ce cockpit? 50, 20, 10, 5? La réponse est devenue une révélation pour tous les innovateurs du monde : zéro. zéro virgule zéro. Aucun pilote! Zéro!!!
Cette incroyable étude menée par les militaires et les scientifiques ne souffrait d'aucune contestation possible, et la morale de l’histoire est simple : la moyenne n'existe pas. C'est à Todd Rose que nous devons cette démonstration étonnante dans une conférence TED, The Myth of Average.
L'usager normal est peu enclin à nommer certains problèmes ou dysfonctionnements. La raison? On s'arrange avec! Regardez le nombre d'objets, de produits ou de services imparfaits autour de nous! On s'adapte, on s'organise, on vit avec. Alors si vous interrogez la moyenne, la probabilité qu'elle ait de grandes révélations à vous faire est faible. Si on me demande s'il est difficile de me servir d'une balayeuse, il se pourrait bien que je le prenne mal... Quand même! Une balayeuse! Mais si on m'observe pendant le ménage, qu'on voit que je galère avec le fil, que je fais la grimace quand le tuyau est coincé dans le coin d'un meuble, qu'on note que je dois la monter du garage, puis la redescendre, en la faisant frotter contre les murs... Tous ces "besoins" sont dits "latents" : ils sont invisibles, et même pas dignes de mention. Alors que les besoins manifestes sont beaucoup plus faciles à obtenir : je veux une balayeuse légère, avec un bon prix et un bon look. Je peux nommer des besoins manifestes universels... mais totalement inintéressants. Ils n'ont pas — ou peu — de valeur. Au final, je me suis offert un robot aspirateur. Pourquoi? Parce que je n'ai pas à le déplacer, parce qu'il n'y a ni fil ni tuyau. J'ai rempli mes besoins latents avec un produit qui n'a pas tenté de simplement remplir des besoins évidents, manifestes.
Imaginer un produit pour la moyenne des consommateurs, c'est imaginer un produit pour... personne. Alors à qui faut-il penser? Aux usagers extrêmes. Ces utilisateurs extrêmes sont étudiés à la loupe par celles et ceux qui veulent surprendre le marché, car ils sont plus bavards que les utilisateurs moyens. Ils ont des choses à vous dire et voici qui ils sont.
Ils ne sont pas encore vos clients. Ils ne le seront jamais si vous n’inventez rien pour eux. Les non-utilisateurs peuvent fournir des informations sur les raisons pour lesquelles ils ne sont pas des utilisateurs actuels d'un produit ou d'un service. Cela peut inclure des obstacles tels que le coût, la complexité ou le manque de conscience de l'existence du produit ou du service. Ils peuvent également fournir des informations sur les besoins non satisfaits, des préférences qui ne sont pas prises en compte par les produits ou services existants. Ces informations sont précieuses pour diversifier un marché, explorer un segment de marché sous-estimé ou "mal traité".
Voici un exemple connu, celui de McDonald’s qui a tenté de mieux comprendre les végétariens qui fuyaient la marque. Résultat : aujourd'hui, McDonald’s a ajouté des formules végétariennes à son menu avec un grand succès.

Ce sont des utilisateurs un peu incompétents avec votre produit. Malhabiles. Débutants. Ils sont moins forts que la moyenne, mais beaaaaaucoup plus bavards. Ils n'ont pas de honte à nommer ceci ou identifier cela. Parfois un handicap peut les empêcher d'utiliser un produit ou un service, ils vont être alors plus enclins à faire des demandes précises. Il peut d'agir aussi d'incompétence pure : "je ne connais rien à la course à pied, mais j'aimerais m'y mettre". On peut aussi penser aux débutants "je viens d'arriver dans l'entreprise et je ne connais pas les outils à utiliser", etc. Dans tous les cas, leur ego n'est pas mis en jeu lors d'une entrevue. Ils n'ont pas à savoir d'emblée. Alors ils sont libres de nommer les choses telles quelles sont. Cette candeur est très très précieuse.
Un exemple connu : c’est grâce à des personnes âgées atteintes d’arthrite que les designers industriels de Smart Design ont conçu une gamme d’ustensiles de cuisine... utilisés par tout le monde — pour leur client OXO Good Grip. Le cas est d'ailleurs bien documenté ici.

Ils sont plus forts que la moyenne. Ce sont des utilisateurs experts, fidèles. Ils ont des choses à vous dire pour améliorer votre produit. Il peut s'agir d'un chauffeur qui fait plus de 50 000 km par année, et qui peut vous parler de fatigue au volant. Une employée fidèle depuis 15 ans a certainement des choses intéressantes à vous dire sur la culture de l'entreprise. On parle ici des pros, des athlètes de votre produit ou de votre service.
Exemple connu : le détaillant de sport Décathlon effectue de nombreuses recherches avec utilisateurs expérimentés dans tous les sports pour améliorer ses produits. Leur page "innovation" est d'ailleurs très explicite à ce sujet!

Ce sont ces usagers qui se sont débrouillés sans vous, avant vous. Ils sont bricoleurs, curieux, avant-gardistes, savants, et surtout... Ils ont DÉJÀ trouvé la solution... Je me souviens de l'exemple partagé par Louis Garneau. Lors d'une compétition, il s'aperçoit qu'un cycliste avait lacéré ses souliers de vélo pour les aérer et les rendre plus souples. C’est ainsi qu'il a amélioré son modèle en créant une mise à jour... plus aérée et plus souple.

Voilà celles et ceux qu’il faut observer, questionner, comprendre. Ils vous mettront sur la piste de solutions nouvelles et vous permettront d'inventer de nouveaux produits ou services. L'intérêt pour les usagers extrêmes réside dans leur capacité à révéler des problèmes et des opportunités qui pourraient passer inaperçus lorsqu'on se concentre uniquement sur les utilisateurs moyens. Les solutions développées pour répondre aux besoins de ces usagers extrêmes ont souvent le potentiel d'améliorer l'expérience de l'ensemble des utilisateurs. Et c'est ça la beauté de l'exercice! Les usagers extrêmes nomment des besoins latents au nom de la masse. Ils deviennent des porte-parole de l'insight qu'un usage moyen n'aurait jamais osé, jamais pensé, jamais pris la peine de partager avec vous. Chez Perrier Jablonski, c'est un point de départ obligatoire avant tout travail stratégique. Nous cherchons les usagers extrêmes qui pourraient nous mettre sur les bonnes pistes.
Attention : cela n’est pas une garantie de succès commercial... C'est une piste à explorer! Mais si la solution est unique, elle vous donnera un avantage certain face au marché. Dernier exemple pour la route, Yoplait, et ses contenants de 1 litre. Typiquement, la forme de peanut est beaucoup plus facile à agripper... et c'est vrai pour tout le monde. Mais c'est en parlant à des personnes âgées atteintes d'arthrite qu'ils l'ont appris...

En 2003, LEGO perdait un million de dollars (USD) par jour. Fondé en 1932 dans l’atelier d’un menuisier à Billund, le fabricant danois était en chute libre : 30 % de chiffre d’affaires évaporé en un an, puis encore 10 % l’année suivante. La dette atteignait 800 millions de dollars. À 35 ans, tout juste nommé PDG, Jørgen Vig Knudstorp a résumé la situation avec une franchise brutale : « Nous sommes sur une plateforme en feu. Nous perdons de l’argent, notre flux de trésorerie est négatif, et nous risquons un défaut de paiement qui pourrait entraîner le démantèlement de l’entreprise. »
Comment le roi de la brique en était-il arrivé là? En écoutant les chiffres... plutôt que les enfants.
Depuis le milieu des années 1990, LEGO avait multiplié les diversifications hasardeuses. Parcs à thème, lignes de vêtements, jeux vidéo, émissions télé, magazines, robotique — l’entreprise voulait devenir le Disney du jouet. Le nombre de composants avait explosé, passant de quelques centaines à près de 7 000 pièces différentes, chacune nécessitant un moule coûtant entre 50 000 et 300 000 euros. Les brevets sur la brique d’origine ayant expiré en 1988, la concurrence s’engouffrait dans la brèche pendant que LEGO regardait ailleurs.
Pire encore : toutes les études de marché commandées par l'entreprise convergeaient vers le même diagnostic accablant. Les enfants de la génération numérique n'avaient plus la patience de construire quoi que ce soit. Leur capacité d'attention rétrécissait. Ils voulaient de la gratification instantanée, des écrans, du mouvement. La brique, concluaient les analystes, appartenait au passé.
LEGO a donc fait ce que les données lui dictaient : fabriquer des briques plus grosses, simplifier les modèles, réduire les défis de construction. Rendre le tout plus facile, plus rapide, plus « adapté » aux enfants d'aujourd'hui.
Les ventes ont continué de plonger.
C'est dans ce contexte de panique que Vig Knudstorp prend une décision contre-intuitive. Plutôt que de commander une énième étude quantitative, il fait appel à ReD Associates, un cabinet de conseil danois fondé par Christian Madsbjerg et Mikkel Rasmussen, qui pratique quelque chose de radicalement différent : l'ethnographie appliquée aux affaires.
Là où les firmes de recherche traditionnelles distribuent des questionnaires et organisent des groupes de discussion, ReD envoie des anthropologues observer les gens dans leur habitat naturel. Comme le formulait Vig Knudstorp lui-même : « Il y a cette citation célèbre qui dit que si vous voulez comprendre comment vivent les animaux, vous n'allez pas au zoo — vous allez dans la jungle. »
ReD Associates a donc déployé ses chercheurs dans les chambres d'enfants, les sous-sols et les cours d'école de plusieurs pays. Pas pour poser des questions sur les préférences de produit. Pour observer. Pour comprendre le contexte, les rituels, les dynamiques sociales, les aspirations non formulées — tout ce que les sondages ne capturent jamais.
Le moment de bascule — ce que Madsbjerg et Rasmussen appellent le moment of clarity — s'est produit au début de 2004, dans la chambre d'un garçon de 11 ans, dans une ville allemande de taille moyenne.
Le garçon était un passionné de LEGO, mais aussi un skateur acharné. Quand l'équipe de recherche lui a demandé quel objet le rendait le plus fier, il n'a pas montré une console de jeu, un téléphone ou même une construction LEGO. Il a pointé du doigt une vieille paire d'Adidas, usée, abîmée, méconnaissable.
Il l'a soulevée comme un trophée. Un côté de la semelle était usé selon un angle très précis. Les talons étaient éraflés d'une manière bien particulière. Chaque marque d'usure racontait une histoire — celle des heures et des heures passées à perfectionner un trick de planche à roulettes. L'état de ces chaussures prouvait, à ses yeux comme à ceux de ses amis, qu'il était l'un des meilleurs skateurs de sa ville. C'était sa preuve tangible de maîtrise.
À cet instant, tout s'est éclairé pour l'équipe LEGO. Comme l'écrit le consultant Martin Lindstrom, qui participait au virage stratégique de l'entreprise : « Ce que des montagnes de recherche consommateur n'avaient pas révélé, un enfant et ses espadrilles venaient de le démontrer. Ère numérique ou pas, les enfants se souciaient profondément de maîtriser une compétence et de pouvoir exhiber la preuve de leur travail. »
La découverte ethnographique renversait totalement le paradigme du big data. Les enfants ne voulaient pas de la gratification instantanée — ils voulaient le défi, l'effort, la fierté de l'accomplissement. Jouer avec des LEGO, ce n'était pas « s'amuser » au sens superficiel du terme. C'était un acte de création, une quête de maîtrise. Ou comme LEGO allait le distiller dans sa nouvelle devise : the joy of building, and the pride of creation.
Les conséquences stratégiques ont été immédiates et radicales. LEGO a ramené ses briques à leur taille normale, puis les a rendues encore plus petites et plus détaillées. Les manuels d'instructions sont devenus plus exigeants. Les défis de construction, plus complexes. Le kit du Death Star, avec ses 3 800 pièces, incarnait parfaitement cette philosophie : un défi ardu qui procurait, une fois terminé, un sentiment d'accomplissement comparable à celui d'un trick de skateboard enfin maîtrisé.
En 2014, portée par le succès planétaire de The Lego Movie et par une décennie de décisions éclairées par la compréhension profonde de ses utilisateurs, LEGO a dépassé Mattel pour devenir le plus grand fabricant de jouets au monde. Son chiffre d'affaires dépassait les 2 milliards de dollars pour le premier semestre seulement.
L'histoire de LEGO n'est pas simplement un cas d'école en redressement d'entreprise. C'est la démonstration éclatante que les données quantitatives, aussi massives soient-elles, ne peuvent pas remplacer la compréhension humaine. Que les algorithmes mesurent les comportements, mais que seule l'ethnographie saisit les motivations. Que la réponse à une question stratégique existentielle se trouvait, ce jour-là, non pas dans un tableau croisé dynamique, mais dans une paire d'espadrilles usées, tenues à bout de bras par un gamin allemand de 11 ans, fier comme un roi.
L'ethnographie est une méthode de recherche qualitative qui vise à explorer et comprendre les comportements humains, les interactions sociales, et les contextes culturels. Ses origines sont enracinées dans l'anthropologie et l'ethnologie, mais elle s'applique aujourd'hui à une variété de domaines, y compris les sciences sociales, le marketing, et la gestion. Chez Perrier Jablonski, l'approche ethnographique prend une dimension spécifique, s'inscrivant dans un cadre qui valorise les interactions humaines et les dynamiques sociales complexes.
Le terme ethnographie provient du grec, signifiant littéralement "écrire sur les gens". En termes simples, il s'agit de décrire et d'analyser les comportements humains et leurs significations dans des contextes spécifiques. Clifford Geertz, une figure majeure de l'anthropologie, résume bien l'ethnographie en affirmant que les découvertes ethnographiques ne sont pas nécessairement exceptionnelles, mais qu'elles sont particulières et ancrées dans des réalités contextuelles.
L'ethnographie est particulièrement utile pour comprendre l'humain derrière les données. Dans un monde où les organisations sont de plus en plus perçues comme des micro-sociétés, elle permet de saisir les dynamiques sociales et culturelles qui échappent souvent aux analyses quantitatives. Son approche centrée sur les individus aide à explorer non seulement ce qui est observable, mais aussi les motivations, valeurs et besoins latents des personnes.
La récolte des données repose sur plusieurs méthodes qualitatives complémentaires :
L'entrevue ethnographique est une interaction "anormale" où l'objectif est de creuser profondément pour comprendre les réalités subjectives des participants. Il peut être structuré, semi-structuré ou non structuré, selon les besoins de l'étude. L'élaboration d'un guide d'entretien clair, comportant des thèmes organisés et des questions ouvertes, est essentielle pour structurer la collecte de données tout en restant flexible.
L'observation peut être directe (non participative) ou participante, où le chercheur s'immerge dans la vie de ses sujets. Le choix du terrain, qu'il soit public ou privé, dépend des objectifs de recherche. Une observation réussie est exhaustive, objective, et mesurable, même si l'objectivité parfaite reste illusoire.
L'analyse ethnographique est un processus subtil qui nécessite une attention particulière aux biais cognitifs :
L'objectif est de chercher la vérité tout en acceptant que l'interprétation sera toujours influencée par la subjectivité du chercheur.
Chez Perrier Jablonski, l'ethnographie occupe une place centrale dans l'exploration des comportements humains et des dynamiques sociales. L'agence adopte une approche ethnographique pour offrir des insights profonds et contextuels à ses clients, en mettant l'accent sur une compréhension fine des micro-sociétés et des individus.
Avec cette approche, nous avons su démontrer au fil des ans que l'ethnographie n'est pas seulement une méthode de recherche universitaire. Elle est un levier stratégique pour innover et transformer les pratiques organisationnelles.