.avif)
Pendant que les ingénieurs d’Intel comptaient les gigahertz, Geneviève Bell comptait les gestes. Pendant qu’ils optimisaient les cartes mères, elle observait des familles qui partageaient un ordinateur comme on partage un canapé. Elle n’a pas étudié la technologie. Elle a étudié les gens autour de la technologie. Et grâce à ça, elle a changé la façon dont certaines des plus grandes entreprises du monde conçoivent leurs produits.
Anthropologue diplômée de Stanford, elle a passé quinze ans chez Intel à intégrer la recherche ethnographique dans le développement technologique. De retour en Australie, elle a fondé le 3A Institute pour penser l’encadrement éthique de l’intelligence artificielle. Aujourd’hui, elle dirige l’École de cybernétique de l’Université nationale australienne (ANU) et continue de poser une question simple : à quoi bon innover si on oublie les humains ?
Le jour où Intel a paniqué
Intel vend des microprocesseurs à la pelle. Mais dans les foyers, un mystère : certains ordinateurs sont achetés… puis jamais utilisés. L’un est même rangé dans une armoire. Pourquoi ?
Intel n’a pas la réponse. Parce qu’aucun ingénieur n’est allé demander.
C’est le point de départ du recrutement de Geneviève Bell, docteure en anthropologie formée à Stanford. Son rôle : comprendre les usages réels des technologies à domicile, dans des contextes culturels variés (Inde, Chine, États-Unis, Norvège...).
Ce qu’elle fait exactement
Bell se rend sur le terrain, chez les gens, caméra à la main. Elle observe comment les familles utilisent (ou n’utilisent pas) la technologie.
Elle ne fait pas de questionnaire, elle regarde :
- Où est posé l’ordinateur ? (Indice : souvent dans la cuisine ou le salon)
- Qui l’utilise, et à quelles conditions ?
- Quels conflits émergent ?
- Qu’est-ce qui est bricolé, caché, éteint ?
Dans une étude de 2006, elle décrit le cas d’une femme indienne qui recouvre l’ordinateur d’un tissu pour « ne pas perturber l’esthétique de la pièce ».
Dans une autre maison à Tokyo, la webcam est couverte d’un pansement pour éviter « qu’elle regarde sans prévenir ». Chaque détail est une information : les objets technologiques ne sont jamais neutres. Ils génèrent des émotions, des tensions, des règles implicites.
Ce qu’elle découvre (et qui dérange)
Dans ses premiers rapports internes, Bell écrit : « Vous pensez que votre produit est utilisé comme vous l’aviez prévu. Il ne l’est jamais. »
Elle montre que :
- L’ordinateur n’est pas une machine personnelle. Il est collectif, souvent conflictuel.
- L’interface n’est qu’un petit morceau de l’expérience réelle.
- Les ingénieurs conçoivent des produits pour des utilisateurs imaginaires, rationnels, homogènes, dociles.
- En réalité, les produits sont toujours reprogrammés par les usages, les cultures, les hiérarchies familiales.
Elle en tire une règle simple : ce n’est pas le produit qui fait l’usage. C’est le contexte.
Comment elle fait bouger l’entreprise
En 2005, elle fonde le People and Practices Research Group chez Intel. C’est l’un des tout premiers laboratoires d’ethnographie intégrés dans une multinationale technologique.
Son travail influe directement sur le design de plusieurs projets :
- Family PC : Intel imagine un ordi familial “central”. Bell montre que personne ne veut partager ses données. Intel intègre la gestion multiprofils et les contrôles parentaux.
- Objets connectés : Elle souligne que la perception de la surveillance est un frein. Des produits sont adaptés pour intégrer des “killswitch” physiques.
- Interfaces vocales : Dans certaines cultures, parler à une machine est “absurde” ou “malsain”. Elle préconise des usages plus discrets, contextuels.
Elle dit dans une conférence à SXSW : « Il ne s’agit pas de créer pour ‘le client’. Il faut créer pour les dynamiques sociales dans lesquelles votre produit va s’insérer. »
Ce que ça nous apprend, pour de vrai
Ce que Bell a fait chez Intel, on peut le faire ailleurs. Son approche repose sur trois principes simples :
- Aller sur le terrain, sans a priori. Regarder, sans chercher à valider.
- Observer les micro-détails. Où c’est posé, qui clique, qui regarde, qui râle.
- Lire entre les silences. Les tensions, les non-dits, les usages bricolés sont souvent plus instructifs que les déclarations d’intention.
Sa méthode est aujourd’hui reprise dans des centaines de boîtes : chez Microsoft, Google, Samsung, Facebook… mais aussi dans les PME qui comprennent que « data ≠ réalité ».
Aujourd’hui : la chercheuse qui forme les ingénieurs
Depuis 2017, Bell dirige le 3A Institute à Canberra, en Australie. Elle forme une nouvelle génération de chercheurs à penser les systèmes autonomes, IA, villes intelligentes, cybersécurité.
Leur mission : ne pas construire “des systèmes intelligents”... mais « des systèmes comprenables ».
Elle enseigne aux ingénieurs à poser des questions comme :
- Qui prend les décisions ?
- Quelles valeurs sont codées dans l’algorithme ?
- Que se passe-t-il si le système échoue ? Qui le contrôle encore ?
Ce qu'il faut retenir
Geneviève Bell a remis l’humain au centre de la technologie. Elle a montré que les « utilisateurs » n’existent jamais seuls. Ils vivent dans un contexte social, culturel, familial. Elle a prouvé que l’ethnographie n’est pas un luxe. C’est une nécessité stratégique. Et surtout, elle nous rappelle une chose : un bon produit ne commence pas avec une idée. Il commence avec une question.
Alex est ethnographe-recherchiste chez Perrier Jablonski. À travers la rencontre et la discussion avec les acteurs des organisations, Alex a pour mission de découvrir des récurrences sociales et des faits collectifs et communautaires. Il élabore ensuite des observations pour nourrir le travail des stratèges.

Perrier Jablonski est une firme stratégique unique en son genre : à mi-chemin entre la recherche et la stratégie, nous sommes habitués à résoudre des problèmes complexes en faisant notre propre recherche anthropologique. La co-création, la technologie et l'I.A. sont intégrés à tous nos processus pour livrer les recommandations stratégiques les plus réalistes et les plus ambitieuses. En 10 ans, nous avons mené
462
missions, dirigé
2265
entrevues, et formé
17794
personnes pour près de 200 clients.
subject
Bibliographie et références de l'article
- Genevieve Bell. Telling Techno-Cultural Tales of the Future. Proceedings of DIS 2011.
- Interview Bell x Atlantic, “Anthropologist in the Machine”, 2013.
- Bell, G. & Dourish, P. (2007). Yesterday’s tomorrows: notes on ubiquitous computing’s dominant vision. Personal and Ubiquitous Computing.
- Bell, G. (2006). No more SMS from Jesus: Ubicomp, religion and techno-spiritual practices. Proceedings of UbiComp.
- Dourish, P. & Bell, G. (2011). Divining a Digital Future: Mess and Mythology in Ubiquitous Computing, MIT Press.
- Citation extraite d’un mémo de Bell rapporté par Wired, 2010.
- Genevieve Bell. SXSW keynote, 2017.
- Intel Archives. People & Practices Research Group Reports (2005–2012).
- Dawn Nafus (ed.). Ethnography for the Internet of Things, O’Reilly Media, 2016.
- SXSW 2017. The Meaning of Autonomy (Keynote).
- Wired. The anthropologist who’s building a smarter robot future, 2017.
- 3A Institute. Australian National University. 3ainstitute.org
L'I.A. a pu contribuer à cet article. Voyez comment.
- Nous utilisons parfois des outils de LLM (Large Language Models) tels que Chat GPT, Claude 3, ou encore Sonar, lors de nos recherches.
- Nous pouvons utiliser les outils de LLM dans la structuration de certains exemples
- Nous pouvons utiliser l'IA d'Antidote pour la correction ou la reformulation de certaines phrases.
- ChatGPT est parfois utilisé pour évaluer la qualité d'un article (complexité, crédibilité des sources, structure, style, etc.)
- Cette utilisation est toujours supervisée par l'auteur.
- Cette utilisation est toujours éthique :
- Elle est transparente (vous êtes prévenus en ce moment-même),
- Elle est respectueuse des droits d'auteurs — nos modèles sont entraînés sur nos propres contenus, et tournent en local lorsque possible et/ou nécessaire.










.avif)
.avif)