Genevieve Bell : l’erreur 404 de la Silicon Valley ou ce que les ingénieurs n’avaient pas vu venir

Genevieve Bell : l’erreur 404 de la Silicon Valley ou ce que les ingénieurs n’avaient pas vu venir

Alex Vendetti
February 22, 2026
—  0  min. de lecture
Geneviève Bell n’a pas changé la technologie — elle a changé la façon dont on la regarde.

Pendant que les ingénieurs d’Intel comptaient les gigahertz, Geneviève Bell comptait les gestes. Pendant qu’ils optimisaient les cartes mères, elle observait des familles qui partageaient un ordinateur comme on partage un canapé. Elle n’a pas étudié la technologie. Elle a étudié les gens autour de la technologie. Et grâce à ça, elle a changé la façon dont certaines des plus grandes entreprises du monde conçoivent leurs produits.

Anthropologue diplômée de Stanford, elle a passé quinze ans chez Intel à intégrer la recherche ethnographique dans le développement technologique. De retour en Australie, elle a fondé le 3A Institute pour penser l’encadrement éthique de l’intelligence artificielle. Aujourd’hui, elle dirige l’École de cybernétique de l’Université nationale australienne (ANU) et continue de poser une question simple : à quoi bon innover si on oublie les humains ?

Le jour où Intel a paniqué

Intel vend des microprocesseurs à la pelle. Mais dans les foyers, un mystère : certains ordinateurs sont achetés… puis jamais utilisés. L’un est même rangé dans une armoire. Pourquoi ?
Intel n’a pas la réponse. Parce qu’aucun ingénieur n’est allé demander.

C’est le point de départ du recrutement de Geneviève Bell, docteure en anthropologie formée à Stanford. Son rôle : comprendre les usages réels des technologies à domicile, dans des contextes culturels variés (Inde, Chine, États-Unis, Norvège...).

Ce qu’elle fait exactement

Bell se rend sur le terrain, chez les gens, caméra à la main. Elle observe comment les familles utilisent (ou n’utilisent pas) la technologie.
Elle ne fait pas de questionnaire, elle regarde :

  • Où est posé l’ordinateur ? (Indice : souvent dans la cuisine ou le salon)
  • Qui l’utilise, et à quelles conditions ?
  • Quels conflits émergent ?
  • Qu’est-ce qui est bricolé, caché, éteint ?

Dans une étude de 2006, elle décrit le cas d’une femme indienne qui recouvre l’ordinateur d’un tissu pour « ne pas perturber l’esthétique de la pièce ».
Dans une autre maison à Tokyo, la webcam est couverte d’un pansement pour éviter « qu’elle regarde sans prévenir ». Chaque détail est une information : les objets technologiques ne sont jamais neutres. Ils génèrent des émotions, des tensions, des règles implicites.

Ce qu’elle découvre (et qui dérange)

Dans ses premiers rapports internes, Bell écrit : « Vous pensez que votre produit est utilisé comme vous l’aviez prévu. Il ne l’est jamais. »

Elle montre que :

  • L’ordinateur n’est pas une machine personnelle. Il est collectif, souvent conflictuel.
  • L’interface n’est qu’un petit morceau de l’expérience réelle.
  • Les ingénieurs conçoivent des produits pour des utilisateurs imaginaires, rationnels, homogènes, dociles.
  • En réalité, les produits sont toujours reprogrammés par les usages, les cultures, les hiérarchies familiales.

Elle en tire une règle simple : ce n’est pas le produit qui fait l’usage. C’est le contexte.

Comment elle fait bouger l’entreprise

En 2005, elle fonde le People and Practices Research Group chez Intel. C’est l’un des tout premiers laboratoires d’ethnographie intégrés dans une multinationale technologique.
Son travail influe directement sur le design de plusieurs projets :

  • Family PC : Intel imagine un ordi familial “central”. Bell montre que personne ne veut partager ses données. Intel intègre la gestion multiprofils et les contrôles parentaux.
  • Objets connectés : Elle souligne que la perception de la surveillance est un frein. Des produits sont adaptés pour intégrer des “killswitch” physiques.
  • Interfaces vocales : Dans certaines cultures, parler à une machine est “absurde” ou “malsain”. Elle préconise des usages plus discrets, contextuels.

Elle dit dans une conférence à SXSW : « Il ne s’agit pas de créer pour ‘le client’. Il faut créer pour les dynamiques sociales dans lesquelles votre produit va s’insérer. »

Ce que ça nous apprend, pour de vrai

Ce que Bell a fait chez Intel, on peut le faire ailleurs. Son approche repose sur trois principes simples :

  • Aller sur le terrain, sans a priori. Regarder, sans chercher à valider.
  • Observer les micro-détails. Où c’est posé, qui clique, qui regarde, qui râle.
  • Lire entre les silences. Les tensions, les non-dits, les usages bricolés sont souvent plus instructifs que les déclarations d’intention.

Sa méthode est aujourd’hui reprise dans des centaines de boîtes : chez Microsoft, Google, Samsung, Facebook… mais aussi dans les PME qui comprennent que « data ≠ réalité ».

Aujourd’hui : la chercheuse qui forme les ingénieurs

Depuis 2017, Bell dirige le 3A Institute à Canberra, en Australie. Elle forme une nouvelle génération de chercheurs à penser les systèmes autonomes, IA, villes intelligentes, cybersécurité.

Leur mission : ne pas construire “des systèmes intelligents”... mais « des systèmes comprenables ».
Elle enseigne aux ingénieurs à poser des questions comme :

  • Qui prend les décisions ?
  • Quelles valeurs sont codées dans l’algorithme ?
  • Que se passe-t-il si le système échoue ? Qui le contrôle encore ?
Cet article est en cours d'écriture.
Si vous avez des choses intéressantes à nous raconter à ce sujet, n'hésitez surtout pas!
Écrivez à l'auteur-trice

Ce qu'il faut retenir

Geneviève Bell a remis l’humain au centre de la technologie. Elle a montré que les « utilisateurs » n’existent jamais seuls. Ils vivent dans un contexte social, culturel, familial. Elle a prouvé que l’ethnographie n’est pas un luxe. C’est une nécessité stratégique. Et surtout, elle nous rappelle une chose : un bon produit ne commence pas avec une idée. Il commence avec une question.

Alex est responsable des sciences comportementales chez Perrier Jablonski. Il intervient régulièrement à HEC Montréal pour partager ses découvertes avec les étudiants en marketing. Il met en lumière les comportements, les motivations et les expériences des individus. Animé par un intérêt sincère pour l’humain, il est un conférencier authentique, capable de créer une connexion naturelle avec son public.
Bibliographie et références de l'article
  • Genevieve Bell. Telling Techno-Cultural Tales of the Future. Proceedings of DIS 2011.
  • Interview Bell x Atlantic, “Anthropologist in the Machine”, 2013.
  • Bell, G. & Dourish, P. (2007). Yesterday’s tomorrows: notes on ubiquitous computing’s dominant vision. Personal and Ubiquitous Computing.
  • Bell, G. (2006). No more SMS from Jesus: Ubicomp, religion and techno-spiritual practices. Proceedings of UbiComp.
  • Dourish, P. & Bell, G. (2011). Divining a Digital Future: Mess and Mythology in Ubiquitous Computing, MIT Press.
  • Citation extraite d’un mémo de Bell rapporté par Wired, 2010.
  • Genevieve Bell. SXSW keynote, 2017.
  • Intel Archives. People & Practices Research Group Reports (2005–2012).
  • Dawn Nafus (ed.). Ethnography for the Internet of Things, O’Reilly Media, 2016.
  • SXSW 2017. The Meaning of Autonomy (Keynote).
  • Wired. The anthropologist who’s building a smarter robot future, 2017.
  • 3A Institute. Australian National University. 3ainstitute.org
L'I.A. a pu contribuer à cet article. Voyez comment.
  • Nous utilisons parfois des outils de LLM (Large Language Models) tels que Chat GPT, Claude 3, ou encore Sonar, lors de nos recherches.
  • Nous pouvons utiliser les outils de LLM dans la structuration de certains exemples
  • Nous pouvons utiliser l'IA d'Antidote pour la correction ou la reformulation de certaines phrases.
  • ChatGPT est parfois utilisé pour évaluer la qualité d'un article (complexité, crédibilité des sources, structure, style, etc.)
  • Cette utilisation est toujours supervisée par l'auteur.
  • Cette utilisation est toujours éthique :
    • Elle est transparente (vous êtes prévenus en ce moment-même),
    • Elle est respectueuse des droits d'auteurs — nos modèles sont entraînés sur nos propres contenus, et tournent en local lorsque possible et/ou nécessaire.
Tableau de bord
no_photography
La vignette est manquante
Cet article est final.
spellcheck
Cet article est en relecture.
rule
Cet article a été remis à Gaëtan
badge
Cet article est encore dans les mains de l'équipe.
psychology
Cet article est un projet.
psychology
Cet article n'a pas de statut!
Ethnographie
sell
Aucun sujet sélectionné!
...
image
Il n'y a pas d'image HERO!
Pendant qu’Intel comptait les gigahertz, Geneviève Bell comptait les silences. Elle a rappelé une chose simple : sans observation, l’innovation n’est qu’illusion.
subject
Il n'y a pas de teaser!
...
photo_size_select_small
Il n'y a aucune vignette!
hdr_auto
Il n'ya a pas d'introduction!
copyright
Pas de légende d'illustration
Légende :
« Genevieve Bell » par Joi Ito, CC BY 2.0
Cet article est écrit par Alex Vendetti, responsable des sciences comportementales chez Perrier Jablonski, et publié par Perrier Jablonski, firme-conseil en stratégie basée à Montréal spécialisée en ethnographie appliquée. Il présente Geneviève Bell, anthropologue diplômée de Stanford, qui a passé quinze ans chez Intel à intégrer la recherche ethnographique dans le développement technologique. En 2005, Bell a fondé le People and Practices Research Group, l'un des premiers laboratoires d'ethnographie intégrés dans une multinationale technologique. Ses observations terrain dans les foyers en Inde, Chine, États-Unis et Norvège ont révélé que les produits ne sont jamais utilisés comme prévu : une femme indienne recouvrait l'ordinateur d'un tissu, une famille à Tokyo masquait la webcam avec un pansement. Ses travaux ont directement influencé le design chez Intel : gestion multiprofils et contrôles parentaux pour le Family PC, killswitch physiques pour les objets connectés, interfaces vocales contextuelles adaptées aux cultures. Depuis 2017, Bell dirige le 3A Institute à l'Université nationale australienne (ANU) et l'École de cybernétique pour penser l'encadrement éthique de l'intelligence artificielle. Sources : Bell et Dourish (Personal and Ubiquitous Computing, 2007), Divining a Digital Future (MIT Press, 2011), conférence SXSW 2017. Destiné aux dirigeants et concepteurs de produits qui souhaitent intégrer l'ethnographie dans leurs processus d'innovation technologique.
🎉
Encoooooore!
Parce qu'on vous aime, voici d'autres articles sur le même thème.
Article
Corrélations, causalités, coïncidences et coups du sort (OLD)
X min.
Article
Corrélations, causalités, coïncidences et coups du sort
X min.
Article
Focus group. Une idée malmenée et mal menée.
X min.
Article
C'est Adidas qui a sauvé LEGO en 2004.
X min.
Article
L’observation participante: une expérience immersive.
X min.
N'achetez pas un livre québécois, achetez-en deux.
Ce que nous apprenons, nous le transmettons.

Notre best-seller sur le pitch! Plus de 3 000 exemplaires vendus et plus de 200 pages de secrets, d'anecdotes et d'histoires pour vous aider à raconter la vôtre!

270 pages pour aider les gestionnaires à survivre dans un monde qui change.

UN PAS🏁DE RECUL,
UN COUP🏴‍☠️D'AVANCE.

Une newsletter incontournable pour les gestionnaires. Un samedi sur deux, une dose d’inspiration, de découvertes et d’outils pour  vous donner un peu de recul... et beaucoup d'avance.
Bien reçu!
Une erreur s'est produite.
⚠️ Connect this link to current Template page
Genevieve Bell : l’erreur 404 de la Silicon Valley ou ce que les ingénieurs n’avaient pas vu venir