Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique. Duis cursus, mi quis viverra ornare, eros dolor interdum nulla, ut commodo diam libero vitae erat. Aenean faucibus nibh et justo cursus id rutrum lorem imperdiet. Nunc ut sem vitae risus tristique posuere.
H0
Paragraph-XXL
Heading
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique. Duis cursus, mi quis viverra ornare, eros dolor interdum nulla, ut commodo diam libero vitae erat. Aenean faucibus nibh et justo cursus id rutrum lorem imperdiet. Nunc ut sem vitae risus tristique posuere.
H1
Paragraph-XL
Heading
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique. Duis cursus, mi quis viverra ornare, eros dolor interdum nulla, ut commodo diam libero vitae erat. Aenean faucibus nibh et justo cursus id rutrum lorem imperdiet. Nunc ut sem vitae risus tristique posuere.
Paragraph-L
Heading
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique. Duis cursus, mi quis viverra ornare, eros dolor interdum nulla, ut commodo diam libero vitae erat. Aenean faucibus nibh et justo cursus id rutrum lorem imperdiet. Nunc ut sem vitae risus tristique posuere.
H3
Paragraph
Heading
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique. Duis cursus, mi quis viverra ornare, eros dolor interdum nulla, ut commodo diam libero vitae erat. Aenean faucibus nibh et justo cursus id rutrum lorem imperdiet. Nunc ut sem vitae risus tristique posuere.
H4
Paragraph-S
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique. Duis cursus, mi quis viverra ornare, eros dolor interdum nulla, ut commodo diam libero vitae erat. Aenean faucibus nibh et justo cursus id rutrum lorem imperdiet. Nunc ut sem vitae risus tristique posuere.
Paragraph-XS
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique. Duis cursus, mi quis viverra ornare, eros dolor interdum nulla, ut commodo diam libero vitae erat. Aenean faucibus nibh et justo cursus id rutrum lorem imperdiet. Nunc ut sem vitae risus tristique posuere.
Paragraph-XXS
ethno, Sapio, techno.
Perrier Jablonski. Là où la recherche et la stratégie se rencontrent.
Article
Titre 1
Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Ut enim ad minim veniam, quis nostrud exercitation ullamco laboris nisi ut aliquip ex ea commodo consequat. Duis aute irure dolor in reprehenderit in voluptate velit esse cillum dolore eu fugiat nulla pariatur.
Nous sommes en 1883 en Italie, et Carlo Collodi invente une histoire, celle de Geppetto. Un soir, le vieux menuisier transforme un morceau de bois magique en une marionnette, qui prend vie et se présente comme Pinocchio. Geppetto se prend d'affection pour Pinocchio et l'aime comme son propre fils... mais le jeune pantin est désobéissant et insouciant. De mauvais choix en mensonges, le petit se retrouve dans toutes sortes d'histoires, qui l'obligent à mentir davantage, lui faisant allonger le nez. Pinochio a la tête dure — normal, elle est en bois — mais heureusement, Jiminy Cricket est là pour tout arranger, il est en quelque sorte la conscience qui manque au pantin. S'en suivent des aventures rocambolesques. Pinocchio continue de mentir et Jiminy Cricket continue de penser à sa place. L'histoire se termine par une scène épique, où Pinocchio sauve Geppetto d'une baleine qui l'avait avalé — une belle leçon sur l'honnêteté, la bravoure et l'amour familial. La fée bleue reconnaît les efforts de Pinocchio et le transforme en un véritable petit garçon.
Acte II — La bande de Dartmouth
31 août 1955. John McCarthy (Dartmouth College), Marvin Minsky (Harvard), Nathaniel Rochester (IBM) et Claude Shannon (Bell) co-signent un document de treize pages prophétique intitulé « Proposition de projet de recherche sur l’intelligence artificielle ». Il a pour ambition de tracer la route des recherches qui seront nécessaires pour doter un jour les machines de "systèmes informatiques ayant des capacités intellectuelles comparables à celles des hommes". La tâche est immense : formaliser le raisonnement d’un humain grâce à une suite d’opérations informatiques. Pour concrétiser son rêve fou, l’équipe sollicite auprès de la très influente Fondation Rockefeller un budget de 14 500$ pour financer un atelier de réflexion de deux mois avec une dizaine de chercheurs à la pointe de ces sujets. Il aura lieu l'année suivante sur le campus du Dartmouth College. Et c'est la naissance de l'idée d'intelligence artificielle. Cette collaboration n’est qu’un début, puisque McCarthy et Minsky vont fonder beaucoup plus tard (1971) le département d’intelligence artificielle au Massachusetts Institute of Technology (MIT). Ce document propose d'explorer plusieurs champs de recherche : la logique symbolique, le raisonnement automatisé, l'apprentissage automatique, la perception, le traitement du langage, la robotique et la psychologie de l'apprentissage. Je le rappelle, nous ne sommes... qu'en 1955.
Minsky au centre, Rochester en noeud papillon, Solomonof en chemise à carreaux, McCarthy accroupi en chemise blanche, Shannon à droite — camp d'été de Dartmouth, 1956 (Photo: Margaret Minsky)
Acte III — OpenAI, enfin
Soixante-dix ans plus tard, nous voici. Les rêves les plus fous contenus dans le Projet Dartmouth sont devenus une réalité — une banalité, même. Il y a de l'I.A partout. Dans votre ordinateur, votre téléphone, votre montre, votre télévision, votre réveil-matin, le haut-parleur du salon, le toaster ou le distributeur de bouffe pour chat... partout. Mais depuis la fin de 2022, une passion nouvelle a submergé nos sociétés. Elle a pris la forme d'une sorte d'hystérie économique, d'emballement médiatique, sur fond de catastrophisme apocalyptique. Un coupable, ChatGPT — un outil puissant de recherche qui peut maintenir une conversation crédible avec vous. Le projet est sorti des cartons de OpenAI, une organisation sans but lucratif fondée en 2015 par un groupe d'investisseurs impressionnants de la Silicon Valley, dont Elon Musk, Peter Thiel et Reid Hoffmann — aussi surnommés la Paypal Mafia (ils ont cofondé Paypal ensemble et leur influence est sans limite aux USA). L'idée, créer une organisation ouverte, qui permette une démocratisation de la technologie, mais aussi la participation de toute la communauté IA, pour fabriquer, améliorer, et peaufiner des modèles ambitieux. L'approche séduit les plus grands chercheurs du marché, qui acceptent des salaires bien inférieurs à ceux payés par les géants Google ou Méta. L'obsession était claire : ne pas laisser l'I.A. dans les mains d'une seule entité, mais en faire un projet collaboratif, une sorte d'ONG du progrès. La mission était écrite noir sur blanc sur leur site internet : faire en sorte que l'intelligence artificielle générale profite à toute l'humanité — attendez, le LOL arrive.
Acte III et demi — le grand bluff
En 2019, l'organisation devient privée, mais la promesse open source demeure : la technologie développée autour de l'intelligence artificielle doit demeurer accessible et gratuite pour tout le monde, afin de s'assurer d'une meilleure gouvernance — LOL numéro 1. Mais à peine un an plus tard... Patatra, une entente est signée avec Microsoft. L'organisation à but "non lucratif" devient alors une entreprise privée, dont la valeur est estimée à 29 Milliards USD. Elle sonne le glas de l'ouverture. L'utilisation devient payante, les licences deviennent commerciales et le code devient secret — LOL numéro 2. Le hold-up de la communauté A.I. est complété, et certains organismes influants de la communauté I.A. s'insurgent. The Center for AI and Digital Policy interpelle la Federal Trade Commission pour "pratique déloyale et trompeuse". Le mythe de l'ouverture, du projet de société, de la transparence et de l'entraide n'aura pas tenu cinq ans. Début 2023, un collectif de 1 000 chercheurs sonne l'alerte et appelle à un contrôle éthique, dans une lettre ouverte (elle!), patronnée par Yoshua Bengio, qui avait pourtant conseillé Greg Brockman — président d'OpenAI — lors du lancement du projet.
Cet épisode n'est pas sans rappeler l'histoire de Google qui avait pour crédo Don't be evil, avant de l'abandonner quelques années plus tard et de collaborer avec le Pentagone sur des projets d'attaques de drones pilotés par l'I.A.
Acte IV — écrans de fumée
Et aujourd'hui? Aujourd'hui l'excitation générale et la paranoïa collective nous empêchent de voir sereinement les limites de l'I.A. De nombreux chercheurs, mathématiciens, physiciens, philosophes appellent à la prudence. D'un côté, la prudence est de mise en cas de réussite, avec des conséquences sociétales importantes — en filigrane, la détérioration de la cherche, de l'éducation, de l'emploi, des égalités, etc. De l'autre, la prudence quant aux capacités réelles de l'I.A — jugées décevantes par le patron d'OpenAI Sam Altman lui-même : "People are begging to be disappointed and they will be". En clair, il y a beaucoup de mystifications autour du sujet. Ce flou est entretenu par la Silicon Valley qui y voit l'opportunité de se refaire une santé financière — et une réputation — après le fiasco absolu des métavers début des années 2020. Alors sur quels mythes reposent l'enfumage dont nous sommes victimes en ce moment? À première vue, j'en vois douze.
Le mythe de l’intelligence : l'humain n'a pas encore compris sa propre nature. La conscience, le raisonnement, l'intelligence mentale et émotionnelle... Tout cela reste à démêler. Mais si nous n'avons pas tout compris de notre propre intelligence, comment alors la programmer dans un ordinateur? L’avantage de l’IA est qu’elle nous force a nous interroger sur ces termes, leur sens, leur compréhension. Mais si on s'en tient à une définition générale, l'intelligence est la faculté d’adaptation, de choix, de comportement, d’intention... Et aux dernières nouvelles, l'intelligence artificielle n'est pas capable de cela. Si on s'en tient simplement à une définition plus technique de l'intelligence, qui ressemblerait à celle de l'intel des anglos — le renseignement, l'information — le robot d'Open IA n'est pas plus intelligent qu'un moteur de recherche, mais il déguise ses recherches dans de grands airs de certitude. Un avocat New yorkais en a fait les frais en mai 2023. Il avait préparé ses plaidoiries sur la base de recherches légales commandées à ChatGPT, qui se sont révélées, pour la grande majorité, complètement inventées par l'automate. Pour vous faire une idée par vous-mêmes, voici un exercice : faites une recherche sur un sujet qui vous est étranger : vous allez être impressionné! Faites une recherche sur un sujet que vous connaissez bien, vous allez certainement être mort de rire!
Le mythe de l’artificiel : le Petit Robert nous rappelle que le mot "artificiel" a une multitude de sens. Artificiel veut dire faux (des fleurs artificielles), il veut dire fait par l'humain et pas par la nature (un lac artificiel), mais aussi qui manque de naturel, forcé, exagéré (une gaieté artificielle), mais aussi arbitraire, qui ne tient pas compte des faits réels (une classification artificielle), ou encore non-humain (une jambe artificielle). Or aujourd'hui, on considère uniquement l'intelligence artificielle comme étant non-humaine — et c'est vrai. Mais c'est aussi vrai qu'elle est fausse, faite par l'humain, elle manque de naturel, elle est arbitraire et échappe aux faits réels. Évidemment que l'I.A. est impressionnante, par le fait qu'elle peut générer une quantité d'information vertigineuse, et la formuler de manière crédible. La capacité à chercher et trouver rapidement donne une illusion d’intelligence, alors qu’il n’est question que de puissance.
Le mythe d'autonomie de fonctionnement : l’intelligence artificielle repose sur la gestion de l’erreur. La machine dit "voici tel résultat, avec telle estimation de mon erreur." Un humain doit alors évaluer la qualité de cette estimation (je simplifie, ok?). À force de feedback, la machine affine ses prédictions et devient meilleure. C'est d'ailleurs la raison du rachat de l'entreprise reCaptcha — cette petite boîte qui vous demande sans arrêt de confirmer que vous êtes un humain — par Google en 2009. En quelques années, on est passé de "Quels sont les caractère bizarres écrits ci-dessous?" à "cliquez sur les images de Street View où vous voyez un bus". Ce changement s'est produit en 2012. Pourquoi? Parce que Google avait besoin de validation de masse. Elle devait vérifier la précision des prédictions de son algorithme. Sur les cases 1 à 9, l'algorithme estime avoir identifié un bus dans les image 2,6 et 7. Et c'est à vous maintenant de valider sa prédiction. Cette vérification, multipliée par des millions chaque jour est une manne de main d'oeuvre gratuite au service d'une machine qui donne des airs d'autonomie. Or, depuis le début de l'année, ces images de Google Street ont été remplacées par des images générées par de l'I.A. Encore une fois, c'est vous qui faites le boulot de valider ou corriger la machine. Google n'a pas racheté reCAPCHA pour sécuriser les sites web du monde entier, mais pour nous faire travailler gratuitement.
L'étrange (et stratégique) évolution de reCAPCHA à travers le temps
Le mythe de l’autonomie d'apprentissage : cette masse de données immense repose... sur des connaissances humaines, générées par des milliers d'années d'intelligence humaine, un savoir validé par des humains, supervisé par des humains, trié, catégorisés, classé et indexé par des humains, entrés manuellement dans des machines... par des humains. L’invention même de ces machines est un acte créatif humain, les algorithmes sont créés par des humains, comme l'ont été les mathématiques. Et soudain, le résultat sort de la machine, et l'on oublie les fils de la marionnette, et la main qui la contrôle. Tout est humain dans l'intelligence artificielle.
Le mythe de l’autonomie créative : GPT signifie Generative Pre-trained Transformer. Il s'agit pour l'I.A. de générer des contenus, au delà de simplement les compiler. Générer du texte, des images, de la musique, en s'entraînant sur des masse importantes de donnée. Par exemple, après quelques commandes très simples auprès de MidJourney, Stable Diffusion ou Dall-e, l’ordinateur vous fait quelques propositions de « création ». C’est bluffant. Avec de l’entraînement, cela devient fascinant. Mais ce n’est pas une création. C’est un collage malicieux d’images recherchées sur le net, dépouillées de leur droits d’auteurs et savamment mélangées sans aucune autorisation, pour en créer une autre. En janvier 2023, GettyImage a poursuivi ces trois plateformes pour violation de droits d’auteur, après avoir retrouvé son propre logo dans des créations censées être originales. Emad Mostaque, le patron de Stable Diffusion à sèchement répondu sur Twitter « models and data for all », brandissant encore le mythe de l’open source. Voulait-t-il dire « from all »?
Le mythe de l’autonomie énergétique : les abeilles sont capables de faire de la reconnaissance faciale avec un cerveau d'un millimètre-cube. En plus de ce miracle de miniaturisation, l'insecte fait tout cela sans intervention humaine, en totale autonomie énergétique — le tout en veillant à l'équilibre de notre agriculture, donc à notre survie. Pour la même opération, un ordinateur a besoin d’une quantité astronomique d’énergie, sans compter l’impact environnemental écrasant de sa fabrication. Puissance, d'accord... mais au quel prix? Pour quels impacts?
C'est pas moi, ce sont mes serveurs.
Le mythe de l'éthique pratique : concrètement, la recherche en intelligence artificielle est principale privée, masculine, et blanche. Loin de moi l'intention de me lancer dans le wokisme numérique, il faut constater plusieurs échecs de l'I.A. D'abord celui de la reconnaissance faciale chez les personnes noires (pour qui le risque d'erreur est multipliée par 100, ce qui a été dénoncé par Amnesty Internationale). Ensuite, l'objectification de la femme, permise par les outils de création d'images, qui — s'ils ne permettent pas la fabrication de matériel pornographique en tant quel tel — facilitent la sur-production d'images sur-sexualisées. Enfin, la perpétuation des biais, comme dans le cas d'Amazon, qui avait mis en place un système de recrutement automatisé en 2014. Le but : recruter les meilleurs CV en se basant sur les données historiques. Résultats : la machine a proposé... des hommes blancs en grande majorité, perpétuant les bonnes vieilles habitudes du groupe. L'exemple le plus notable de biais de l'IA est sans doute l'algorithme COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) utilisé actuellement dans le système judiciaire américain pour prédire la probabilité de récidive d'un. Le modèle prédit deux fois plus de faux positifs pour la récidive chez les délinquants noirs (45 %) que les délinquants blancs (23 %). On est carrément dans un Minority Report buggé! Oui, l'I.A. est une promesse de progrès. Si vous êtes un homme riche et blanc. Dans les faits, elle n'est qu'une machine à exacerber les discriminations, un accélérateur de problèmes sociétaux. Ce qui n'est pas vraiment la définition du progrès.
The AI Art Movement Has an Objectification Problem, NFTNews
Le mythe de l'éthique philosophique : quand viendra le temps de prendre position, ou de prendre des décisions importantes, comment l’IA va-t-elle raisonner? Admettons que nous lui demandions son avis sur le port d’arme. Comment va-t-elle pouvoir répondre? En prenant en compte le point de vue des deux camps? De la moyenne de la population? De l’opinion supposée du demandeur? De son créateur? Va-t-elle prendre en considération des motifs culturels, historiques ou religieux? Va-t-elle miser sur le principe du meilleur individuel ou collectif? La réponse est décevante : c’est la première option qui a été retenue lors de mon test avec ChatGPT 4. La machine présente les deux opinions, sans prendre parti. Hors, l'intelligence consiste justement à prendre prendre une décision, en fonction de l'époque, des circonstances, d'une vision de société, des défis économiques ou légaux... mais aussi en fonction de nos principes moraux, de nos intentions, de nos croyances, de nos intuitions. C'est précisément ça, l'intelligence. Quand bien même... Si les humains eux-mêmes ne s’entendent pas sur des questions de base comme l'égalité, la peine de mort, le droit à disposer de son corps, l’égalité homme-femme ou la liberté d’expression... Comment va-t-on encoder les machines? Qui va le faire? Avec quelle régulation? Nous avons déjà la réponse : Facebook, Twitter et autre Cambridge Analytica nous ont démontré que la régulation ne dépend que d'un seul critère : l'argent.
Le mythe de l’open source : depuis l'entente avec Microsoft, l'orientation open source d'OpenAI ne tiennent plus debout. Open IA est une chaîne de commande corrompue à la naissance d'un bout à l'autre. À l'entrée de cette machine, les capacités d'analyse d'OpenAI reposent principalement sur la disponibilité de documents, images, et textes présents sur le web — le plus souvent au détriment des droits d'auteur (nous y reviendrons). À la sortie, le fait que l'outil soit devenu payant n'assure plus une accessibilité universelle. Entre l'entrée et la sortie, le processus de traitement de ces informations n'est plus ouvert aux regards de chercheurs qui jusque là participaient à un projet collectif. Pour récapituler, l'IA d'Open IA est un processus opaque où les sources ne sont pas sûres, où le fonctionnement est secret, et où l'utilisation n'est plus universelle, contrairement aux belles promesses de ses débuts.
Le mythe de l'utilité immédiate réelle : l'utilité de l'IA dans la course à la productivité n'est pas contestable pour certaines entreprises. C'est un bouleversement aussi évident que l'invention d'Internet ou des moteurs de recherche dans leur temps. Mais pour d'autres, il s'agit d'un apparat marketing, qui permet de se différentier à peu de frais. Cette course à la concurrence touche aussi les employés, qui — avec peu d'effort — peuvent se targer de connaissances nouvelles et de capacités redoublées. Tout cela ajoute à l'agitation et ajoute du bruit au bruit... Mais c'est justement cette course d'egos qui finance OpenAI aujourd'hui. Un abonnement Pro ne coute que 30$ par mois, et cette accessibilité a fait exploser le taux d'adoption de la technologie — une pratique commerciale courante pour devenir un standard rapidement. Dans le fond, le succès d'OpenAI repose aussi sur notre besoin de nous démarquer — comme le succès de Facebook a reposé sur le besoin de nous faire connaitre.
Le mythe de la singularité : c'est le fantasme de Raymond Kurzeill — grand guru du transhumanisme, véritable icône techno, et patron d'une école dédiée à la singularité. La singularité, c'est le moment où l'intelligence artificielle va rejoindre l'intelligence humaine. ChatGPT se présente déjà comme une avancée sérieuse vers cette singularité. Or, à moins que la machine puisse se reproduire, se créer toute seule, évoluer tout au long de sa vie sur le plan physique, découvrir le monde et le savoir sans assistance humaine dirigée, mais simplement grâce aux interactions avec ses pairs, si elle est capable de cultiver, transformer, ingérer puis digérer une nourriture suffisante à produire l'énergie dont elle a besoin pour fonctionner... alors un ChatGPT aussi sophistiquée soit-il demeure loin de la singularité. Alors qu'un ordinateur n'a ni conscience, ni créativité, ni intention, ni libre arbitre, ni capacité de fonctionner sans instructions humaines, Kurzeill se rêve en fée bleue, accordant le statut de petit garçon à un Pinnochio menteur et manipulateur.
Le mythe de la fin du monde : Il existe trois niveaux d'intelligence artificielle. L'IA Faible (ANI - pour Artificial Narrow Intelligence), qui ne sait faire qu'une seule tâche, l'IA Générale (AGI) qui aurait les capacités d'une intelligence humaine — aussi appelée la singularité), enfin la Super IA (ASI), la mise en réseaux de toutes les AGI, qui annoncerait deux scénarios : la vie éternelle... ou la fin du monde. Or, ces suppositions sont totalement arbitraires — artificielles, donc. Alors pourquoi les concepteurs d'OpenAI eux-mêmes crient au loup, au danger, à la prudence? Parce qu'il veulent nous faire croire qu'ils ont dans les mains un outil à dompter, donc une responsabilité, donc un pouvoir. Ce stratagème rappelle celui de la menace atomique : "j'ai dans les mains la possibilité de détruire le monde, alors tu vas m'écouter." Sauf que cette fois-ci, ce pouvoir n'est pas dans les mains d'un gouvernement, mais d'une entreprise privée. Et ça marche! Sam Altmann est invité par les plus grands décideurs et les gouvernements, qui ne veulent pas manquer le bateau. C'est l'aboutissement du rêve libertaire (ultra-ultra libéral) promu par Peter Thiel et Elon Musk. Fait cocasse #1, la plateforme Truth Social de Trump a largement bénéficié du support (technique et publicitaire) de la plateforme Rumble, financée par Peter Thiel. Fait cocasse #2, Elon Musk, qui avait quitté le navire d'OpenAI vient d'annoncer la création de Truth GPT. Le duel Petier Thiel VS Elon Musk continue. Truth Social VS TruthGPT. Truth VS Truth, ou la vérité comme marque de commerce. On dirait bien que les rois de la Silicon Valley veulent leur part de ce gâteau prometteur.
En attendant, l'intelligence artificielle est un pantin mal élevé, qui ment, qui raconte toutes sortes d'âneries... mais que son inventeur adore quand même. C'est un morceau de bois qui a besoin d'un Jimily Cricket — nous — pour lui donner une âme et rectifier ses erreurs. Ce pantin est très impressionnant, mais il n'est pas nouveau. Le philosophe Archytas avait fabriqué le premier automate de l'histoire, un pigeon mécanique au IVe siècle avant J.-C. Le mathématicien Héron d'Alexandrie avait fabriqué plusieurs automates hydrauliques dans le premier siècle après J.-C. Léonard de Vinci avait conçu un chevalier mécanique, et Descartes s'était bricolé Francine, une enfant-automate après le décès de sa fille. Le Turc mécanique de Von Kempelen jouait aux échecs au XVIIIe siècle, alors que le canard mécanique de Jacques de Vaucanson semblait manger et digérer de la nourriture.
Les automates ont toujours été fascinants et ils le sont encore. Ils frappent notre imaginaire et nous questionnent sur notre propre nature, nos habiletés, nos capacités, notre créativité, mais aussi sur nos intentions, notre morale ou notre éthique. Bref... sur notre singularité — celle qui rend les humains si singuliers. Mais il ne sont que des pantins, encore moins autonomes que Pinnochio. Les mains qui dirigent ce bout de bois surdoué a des intentions douteuses. Tel un public médusé, nous sommes en train de croire au ventriloque, et les fils de nylons se dissipent. Or il sont bien présents. La marionnette de l'I.A. est dépourvue de ce qui fait notre intelligence. Des capacités tout à fait mystérieuses pour nous, encore aujourd'hui. L'humain est miracle, l'I.A. un automate. Sa puissance le rend arrogant et sûr de lui — les seuls traits humains dont il a réellement hérités jusqu'alors.
Pour conclure cette réflexion, je vais convoquer John McCarty lui-même — de la bande de Dartmouth, souvenez-vous. C'est lui qui a inventé le terme Artificial Intelligence en 1956, pendant l'atelier d'été. Un peu plus tard, il va faire une déclaration qui explique bien des choses : "As soon as it works, no one calls it AI anymore". Dès que ça fonctionne, on n'appelle plus ça de l'intelligence artificielle. Et c'est vrai! Un ordinateur, un téléphone, une montre, une télévision, un réveil-matin, un haut-parleur, un toaster ou un distributeur de bouffe pour chat... tout cela relève de l'intelligence artificielle, mais puisque ça fonctionne, on appelle ça autrement. Et c'est un signal à repérer dans le discours des marchands du temple. Dès que vous entendez les mots "intelligence artificielle", c'est que... bah ça ne marche *peut-être* pas encore...
Pendant que les ingénieurs d’Intel comptaient les gigahertz, Geneviève Bell comptait les gestes. Pendant qu’ils optimisaient les cartes mères, elle observait des familles qui partageaient un ordinateur comme on partage un canapé. Elle n’a pas étudié la technologie. Elle a étudié les gens autour de la technologie. Et grâce à ça, elle a changé la façon dont certaines des plus grandes entreprises du monde conçoivent leurs produits.
Anthropologue diplômée de Stanford, elle a passé quinze ans chez Intel à intégrer la recherche ethnographique dans le développement technologique. De retour en Australie, elle a fondé le 3A Institute pour penser l’encadrement éthique de l’intelligence artificielle. Aujourd’hui, elle dirige l’École de cybernétique de l’Université nationale australienne (ANU) et continue de poser une question simple : à quoi bon innover si on oublie les humains ?
Le jour où Intel a paniqué
Intel vend des microprocesseurs à la pelle. Mais dans les foyers, un mystère : certains ordinateurs sont achetés… puis jamais utilisés. L’un est même rangé dans une armoire. Pourquoi ? Intel n’a pas la réponse. Parce qu’aucun ingénieur n’est allé demander.
C’est le point de départ du recrutement de Geneviève Bell, docteure en anthropologie formée à Stanford. Son rôle : comprendre les usages réels des technologies à domicile, dans des contextes culturels variés (Inde, Chine, États-Unis, Norvège...).
Ce qu’elle fait exactement
Bell se rend sur le terrain, chez les gens, caméra à la main. Elle observe comment les familles utilisent (ou n’utilisent pas) la technologie. Elle ne fait pas de questionnaire, elle regarde :
Où est posé l’ordinateur ? (Indice : souvent dans la cuisine ou le salon)
Qui l’utilise, et à quelles conditions ?
Quels conflits émergent ?
Qu’est-ce qui est bricolé, caché, éteint ?
Dans une étude de 2006, elle décrit le cas d’une femme indienne qui recouvre l’ordinateur d’un tissu pour « ne pas perturber l’esthétique de la pièce ». Dans une autre maison à Tokyo, la webcam est couverte d’un pansement pour éviter « qu’elle regarde sans prévenir ». Chaque détail est une information : les objets technologiques ne sont jamais neutres. Ils génèrent des émotions, des tensions, des règles implicites.
Ce qu’elle découvre (et qui dérange)
Dans ses premiers rapports internes, Bell écrit : « Vous pensez que votre produit est utilisé comme vous l’aviez prévu. Il ne l’est jamais. »
Elle montre que :
L’ordinateur n’est pas une machine personnelle. Il est collectif, souvent conflictuel.
L’interface n’est qu’un petit morceau de l’expérience réelle.
Les ingénieurs conçoivent des produits pour des utilisateurs imaginaires, rationnels, homogènes, dociles.
En réalité, les produits sont toujours reprogrammés par les usages, les cultures, les hiérarchies familiales.
Elle en tire une règle simple : ce n’est pas le produit qui fait l’usage. C’est le contexte.
Comment elle fait bouger l’entreprise
En 2005, elle fonde le People and Practices Research Group chez Intel. C’est l’un des tout premiers laboratoires d’ethnographie intégrés dans une multinationale technologique. Son travail influe directement sur le design de plusieurs projets :
Family PC : Intel imagine un ordi familial “central”. Bell montre que personne ne veut partager ses données. Intel intègre la gestion multiprofils et les contrôles parentaux.
Objets connectés : Elle souligne que la perception de la surveillance est un frein. Des produits sont adaptés pour intégrer des “killswitch” physiques.
Interfaces vocales : Dans certaines cultures, parler à une machine est “absurde” ou “malsain”. Elle préconise des usages plus discrets, contextuels.
Elle dit dans une conférence à SXSW : « Il ne s’agit pas de créer pour ‘le client’. Il faut créer pour les dynamiques sociales dans lesquelles votre produit va s’insérer. »
Ce que ça nous apprend, pour de vrai
Ce que Bell a fait chez Intel, on peut le faire ailleurs. Son approche repose sur trois principes simples :
Aller sur le terrain, sans a priori. Regarder, sans chercher à valider.
Observer les micro-détails. Où c’est posé, qui clique, qui regarde, qui râle.
Lire entre les silences. Les tensions, les non-dits, les usages bricolés sont souvent plus instructifs que les déclarations d’intention.
Sa méthode est aujourd’hui reprise dans des centaines de boîtes : chez Microsoft, Google, Samsung, Facebook… mais aussi dans les PME qui comprennent que « data ≠ réalité ».
Aujourd’hui : la chercheuse qui forme les ingénieurs
Depuis 2017, Bell dirige le 3A Institute à Canberra, en Australie. Elle forme une nouvelle génération de chercheurs à penser les systèmes autonomes, IA, villes intelligentes, cybersécurité.
Leur mission : ne pas construire “des systèmes intelligents”... mais « des systèmes comprenables ». Elle enseigne aux ingénieurs à poser des questions comme :
Qui prend les décisions ?
Quelles valeurs sont codées dans l’algorithme ?
Que se passe-t-il si le système échoue ? Qui le contrôle encore ?
Dans l'art du pitch, la maîtrise de la rhétorique est essentielle pour communiquer efficacement et convaincre votre auditoire. Cette discipline, qui remonte à la Grèce antique, a été profondément influencée par les sophistes, des enseignants itinérants spécialisés dans l'art de la parole et de la persuasion. Leur approche pragmatique de la communication visait à former les citoyens à l'excellence oratoire, essentielle dans les démocraties naissantes de l'époque. En s'inspirant de leurs techniques, un pitch efficace peut être structuré en quatre étapes clés : persuader, révéler, convaincre et conclure.
Persuader pour capter l'attention et établir la crédibilité
La première étape d'un pitch consiste à capter l'attention de votre auditoire tout en établissant votre crédibilité. Les sophistes mettaient l'accent sur l'êthos, c'est-à-dire l'image et la réputation de l'orateur, considérant que la perception de l'auditoire envers le locuteur influence grandement la réception du message. Ainsi, il est essentiel de se présenter comme une personne digne de confiance et compétente.
Crédibilité : Démontrez votre expertise en mentionnant vos qualifications, votre expérience pertinente ou des témoignages de tiers qui attestent de votre compétence. Par exemple, si vous présentez une innovation technologique, évoquez votre parcours académique en ingénierie et les projets réussis que vous avez menés. Cette démonstration de compétence installe la confiance chez votre auditoire.
Émotion : L'engagement émotionnel est un levier puissant pour capter l'attention. Racontez une histoire personnelle ou partagez une anecdote qui résonne avec les expériences de votre auditoire. Par exemple, décrire comment une difficulté personnelle vous a conduit à développer votre produit peut créer une connexion empathique. Les émotions telles que la joie, la surprise ou même la tristesse peuvent rendre votre message plus mémorable.
Connexion personnelle : Montrez à votre auditoire que vous comprenez ses besoins et ses préoccupations. Cela peut être réalisé en posant des questions rhétoriques ou en évoquant des situations communes. Par exemple, "Combien d'entre vous ont déjà ressenti la frustration de perdre du temps sur des tâches répétitives ?" Cette approche favorise l'identification et l'engagement.
En combinant ces éléments, vous établissez une base solide pour votre présentation, préparant votre auditoire à recevoir favorablement vos arguments.
Surprendre pour susciter l'intérêt
Une fois l'attention captée et la confiance établie, la prochaine étape consiste à révéler des informations qui surprennent et intriguent votre auditoire. Cette phase vise à stimuler la curiosité et à maintenir l'engagement en introduisant des éléments inattendus ou des perspectives nouvelles.
Statistiques choquantes : Présenter des données qui contredisent les idées reçues ou qui mettent en lumière un problème sous-estimé peut provoquer un effet de surprise. Par exemple, annoncer que "70 % des entreprises échouent en raison d'une mauvaise communication interne" peut choquer et attirer l'attention sur l'importance de votre solution.
Anecdotes intrigantes : Raconter une histoire captivante ou un cas particulier peut illustrer votre propos de manière vivante. Par exemple, partager comment une petite entreprise a doublé sa productivité en adoptant une approche innovante peut servir de révélation inspirante.
Questions provocantes : Poser des questions qui incitent à la réflexion peut éveiller l'intérêt. Par exemple, "Et si la clé de l'innovation résidait non pas dans la technologie, mais dans la culture d'entreprise ?" Cette approche encourage l'auditoire à reconsidérer ses préjugés.
Cette phase de révélation est essentielle pour maintenir l'engagement de votre auditoire et le préparer à recevoir des arguments plus détaillés.
Convaincre pour fournir des preuves tangibles et rationnelles
Après avoir suscité l'intérêt, il est crucial de convaincre votre auditoire en fournissant des preuves concrètes et des arguments rationnels. Cette étape repose sur le logos — un terme fascinant chez les Grecs qui anciens désigne la raison universelle, le principe d'ordre et de connaissance qui structure le monde et permet la pensée rationnelle. C'est l'étape qui fait appel à la logique et à la raison.
Données et faits : Appuyez votre argumentation avec des statistiques, des études de cas ou des témoignages crédibles. Par exemple, présenter des chiffres démontrant l'efficacité de votre solution renforce la crédibilité de votre propos.
Raisonnement logique : Structurez vos arguments de manière cohérente et logique. Utilisez des syllogismes ou des enchaînements causaux pour démontrer la validité de votre proposstion. Par exemple, "Si A conduit à B, et que B conduit à C, alors A conduit à C."
Anticipation des objections : Reconnaissez les objections potentielles et répondez-y proactivement. Cela montre que vous avez envisagé différentes perspectives et que vous êtes prêt à y répondre. Par exemple, "Certains pourraient penser que notre solution est coûteuse, mais les économies réalisées à long terme compensent largement l'investissement initial."
En fournissant des preuves tangibles et en structurant votre argumentation de manière logique, vous renforcez la persuasion de votre message.
Conclure pour appeler à l'action et laisser une impression durable
La conclusion de votre pitch est une étape cruciale qui laisse une impression durable sur votre auditoire. C'est le moment où vous synthétisez votre message et incitez votre public à agir. Une conclusion bien structurée renforce l'impact de votre présentation et augmente les chances de concrétiser vos objectifs.
Résumé des points clés : Récapitulez brièvement les principaux arguments de votre présentation pour renforcer leur mémorisation. Utilisez des expressions telles que « en conclusion » ou « pour résumer » pour signaler cette synthèse. Cette technique aide votre auditoire à retenir l'essentiel de votre message.
Appel à l'action clair : Indiquez explicitement ce que vous attendez de votre auditoire, que ce soit une prise de décision, une inscription ou un achat. Un appel à l'action précis guide votre public vers l'étape suivante et facilite l'engagement.
Phrase marquante ou citation inspirante : Terminez par une citation percutante ou une phrase qui incite à la réflexion. Par exemple, utiliser une citation célèbre peut renforcer votre message et laisser une impression positive. Cette approche donne du poids à votre conclusion et encourage votre auditoire à réfléchir davantage à votre propos.
Ouverture vers l'avenir : Projetez votre auditoire vers les prochaines étapes ou les perspectives futures de votre projet. Cette ouverture crée une anticipation positive et montre votre vision à long terme.
Remerciements et disponibilité : Exprimez votre gratitude envers votre auditoire pour son temps et son attention. Indiquez votre disponibilité pour répondre aux questions ou discuter plus en détail. Cette attitude ouverte favorise les échanges et montre votre engagement.
Restez assis
Pour compléter nos quatre étapes, voici quelques conseils en vrac.
Comprenez votre audience : Avant de concevoir votre pitch, identifiez clairement qui sont vos interlocuteurs, leurs besoins et leurs attentes. Cette connaissance vous permettra d'adapter votre message pour résonner efficacement avec eux.
Structurez votre message : Un pitch efficace suit une structure claire. Commencez par une introduction accrocheuse, exposez les points clés de votre argumentation, puis concluez par un appel à l'action persuasif.
Utilisez des supports visuels pertinents : Des visuels bien conçus peuvent renforcer votre message. Assurez-vous qu'ils soient clairs, attrayants et qu'ils complètent votre discours sans le surcharger.
Pratiquez et chronométrez-vous : Entraînez-vous régulièrement à présenter votre pitch à voix haute. Chronométrez-vous pour vous assurer de respecter le temps imparti et ajustez votre présentation en conséquence.
Soyez authentique et passionnée : Montrez votre passion pour votre projet et transmettez votre confiance à travers votre langage corporel, votre ton de voix et votre énergie. Cela aidera à convaincre votre auditoire de l'importance et de la valeur de ce que vous proposez.
En intégrant ces conseils à votre préparation, vous renforcerez l'impact de votre pitch, augmentant ainsi vos chances de convaincre et d'engager votre audience.
Comprendre son auditoire, persuader avec une bonne histoire, convaincre avec une structure solide, présenter efficacement, maîtriser sa présence.
Taux de satisfaction de 96%
Gestionnaires
Professionnels du développement des affaires
Entrepreneurs
Conférence (60-90’)
Classe de Maître (3h)
Atelier (6h)
Écouter, c'est un métier.
L’ethnographie met l’humain au cœur des décisions. Par l’écoute et l’observation du réel, nous révélons ce qui motive vraiment les gens. Combien de gens jusqu'à présent?