%20(1).avif)
Genevieve Bell : l’erreur 404 de la Silicon Valley ou ce que les ingénieurs n’avaient pas vu venir
X min.
Pendant que les ingénieurs d’Intel comptaient les gigahertz, Geneviève Bell comptait les gestes. Pendant qu’ils optimisaient les cartes mères, elle observait des familles qui partageaient un ordinateur comme on partage un canapé. Elle n’a pas étudié la technologie. Elle a étudié les gens autour de la technologie. Et grâce à ça, elle a changé la façon dont certaines des plus grandes entreprises du monde conçoivent leurs produits.
Anthropologue diplômée de Stanford, elle a passé quinze ans chez Intel à intégrer la recherche ethnographique dans le développement technologique. De retour en Australie, elle a fondé le 3A Institute pour penser l’encadrement éthique de l’intelligence artificielle. Aujourd’hui, elle dirige l’École de cybernétique de l’Université nationale australienne (ANU) et continue de poser une question simple : à quoi bon innover si on oublie les humains ?
Le jour où Intel a paniqué
Intel vend des microprocesseurs à la pelle. Mais dans les foyers, un mystère : certains ordinateurs sont achetés… puis jamais utilisés. L’un est même rangé dans une armoire. Pourquoi ?
Intel n’a pas la réponse. Parce qu’aucun ingénieur n’est allé demander.
C’est le point de départ du recrutement de Geneviève Bell, docteure en anthropologie formée à Stanford. Son rôle : comprendre les usages réels des technologies à domicile, dans des contextes culturels variés (Inde, Chine, États-Unis, Norvège...).
Ce qu’elle fait exactement
Bell se rend sur le terrain, chez les gens, caméra à la main. Elle observe comment les familles utilisent (ou n’utilisent pas) la technologie.
Elle ne fait pas de questionnaire, elle regarde :
- Où est posé l’ordinateur ? (Indice : souvent dans la cuisine ou le salon)
- Qui l’utilise, et à quelles conditions ?
- Quels conflits émergent ?
- Qu’est-ce qui est bricolé, caché, éteint ?
Dans une étude de 2006, elle décrit le cas d’une femme indienne qui recouvre l’ordinateur d’un tissu pour « ne pas perturber l’esthétique de la pièce ».
Dans une autre maison à Tokyo, la webcam est couverte d’un pansement pour éviter « qu’elle regarde sans prévenir ». Chaque détail est une information : les objets technologiques ne sont jamais neutres. Ils génèrent des émotions, des tensions, des règles implicites.
Ce qu’elle découvre (et qui dérange)
Dans ses premiers rapports internes, Bell écrit : « Vous pensez que votre produit est utilisé comme vous l’aviez prévu. Il ne l’est jamais. »
Elle montre que :
- L’ordinateur n’est pas une machine personnelle. Il est collectif, souvent conflictuel.
- L’interface n’est qu’un petit morceau de l’expérience réelle.
- Les ingénieurs conçoivent des produits pour des utilisateurs imaginaires, rationnels, homogènes, dociles.
- En réalité, les produits sont toujours reprogrammés par les usages, les cultures, les hiérarchies familiales.
Elle en tire une règle simple : ce n’est pas le produit qui fait l’usage. C’est le contexte.
Comment elle fait bouger l’entreprise
En 2005, elle fonde le People and Practices Research Group chez Intel. C’est l’un des tout premiers laboratoires d’ethnographie intégrés dans une multinationale technologique.
Son travail influe directement sur le design de plusieurs projets :
- Family PC : Intel imagine un ordi familial “central”. Bell montre que personne ne veut partager ses données. Intel intègre la gestion multiprofils et les contrôles parentaux.
- Objets connectés : Elle souligne que la perception de la surveillance est un frein. Des produits sont adaptés pour intégrer des “killswitch” physiques.
- Interfaces vocales : Dans certaines cultures, parler à une machine est “absurde” ou “malsain”. Elle préconise des usages plus discrets, contextuels.
Elle dit dans une conférence à SXSW : « Il ne s’agit pas de créer pour ‘le client’. Il faut créer pour les dynamiques sociales dans lesquelles votre produit va s’insérer. »
Ce que ça nous apprend, pour de vrai
Ce que Bell a fait chez Intel, on peut le faire ailleurs. Son approche repose sur trois principes simples :
- Aller sur le terrain, sans a priori. Regarder, sans chercher à valider.
- Observer les micro-détails. Où c’est posé, qui clique, qui regarde, qui râle.
- Lire entre les silences. Les tensions, les non-dits, les usages bricolés sont souvent plus instructifs que les déclarations d’intention.
Sa méthode est aujourd’hui reprise dans des centaines de boîtes : chez Microsoft, Google, Samsung, Facebook… mais aussi dans les PME qui comprennent que « data ≠ réalité ».
Aujourd’hui : la chercheuse qui forme les ingénieurs
Depuis 2017, Bell dirige le 3A Institute à Canberra, en Australie. Elle forme une nouvelle génération de chercheurs à penser les systèmes autonomes, IA, villes intelligentes, cybersécurité.
Leur mission : ne pas construire “des systèmes intelligents”... mais « des systèmes comprenables ».
Elle enseigne aux ingénieurs à poser des questions comme :
- Qui prend les décisions ?
- Quelles valeurs sont codées dans l’algorithme ?
- Que se passe-t-il si le système échoue ? Qui le contrôle encore ?