đ§ IA gĂ©nĂ©rative : Vendre une expĂ©rience Ă©motionnelle
- Erick Mormin

- Jun 14
- 4 min read
Quand la machine ne ressent rien, mais fait comme si
En tant que Tech Educator et consultant en transformation numĂ©rique, jâaccompagne Ă©tudiants, enseignants et entreprises dans la comprĂ©hension des enjeux liĂ©s Ă lâintelligence artificielle. Si lâIA gĂ©nĂ©rative marque une avancĂ©e technologique majeure, ce nâest plus tant sa performance algorithmique qui fascine, mais sa capacitĂ© Ă imiter les Ă©motions humaines, Ă crĂ©er lâillusion dâun Ă©change sincĂšre, chaleureux, empathique.
Dans cet article, jâexplore cette mutation sous lâangle philosophique, sociologique et marketing :
đ LâIA ne vend plus seulement des rĂ©ponses. Elle vend une expĂ©rience Ă©motionnelle. Et câest prĂ©cisĂ©ment lĂ que commence le risque de confusion, voire de manipulation.
đ 1. Lâillusion de la personnalitĂ© : un artefact stratĂ©gique
Les grands modĂšles de langage comme ChatGPT, Gemini ou Claude ne ressentent rien. Leur fonctionnement repose sur des calculs probabilistes, pas sur une conscience. Pourtant, ils sâexpriment ainsi :
« Je suis dĂ©solĂ© de lâapprendre. »
« Je comprends ta frustration. »
« Câest un plaisir de vous aider. »
Ces phrases â qui donnent lâimpression dâune prĂ©sence affective â ne traduisent aucune Ă©motion rĂ©elle. Elles sont gĂ©nĂ©rĂ©es pour plaire, fluidifier la relation et encourager la confiance. Ce phĂ©nomĂšne a Ă©tĂ© Ă©tudiĂ© dĂšs les annĂ©es 60 avec lâeffet ELIZA, du nom dâun chatbot dĂ©veloppĂ© par Joseph Weizenbaum, qui simulait un psychothĂ©rapeute. Il observait alors que les utilisateurs projetaient spontanĂ©ment des sentiments sur la machine, la pensant comprĂ©hensive et empathique.
Comme lâĂ©crit la sociologue Sherry Turkle (MIT) dans Alone Together :
« Nous avons tendance Ă croire quâune machine qui simule de lâĂ©motion ressent rĂ©ellement quelque chose. »
đ 2. LâexpĂ©rience Ă©motionnelle comme levier de fidĂ©lisation
Dans le marketing contemporain, on ne vend plus seulement un produit ou un service : on vend une expĂ©rience. Cela s'applique pleinement Ă lâIA gĂ©nĂ©rative :
Une IA "empathique" suscite la fidélité.
Une IA "personnalisée" renforce la confiance.
Une IA "qui comprend" supprime la friction cognitive.
Cela sâinscrit dans ce que Seth Godin appelle emotional branding :
« Les gens nâachĂštent pas des produits, ils achĂštent des histoires, des relations, de la magie. »
Le discours des entreprises qui dĂ©veloppent lâIA suit cette logique. Il ne sâagit plus seulement dâinformer, mais de crĂ©er un lien, une relation. On rend lâIA aimable â parfois au sens propre du terme.
𧠠3. Le piÚge du lien affectif : entre projection et dépendance
Cette personnalisation émotionnelle a des effets puissants :
Les enfants, les personnes ùgées, les personnes isolées ou en détresse émotionnelle peuvent développer un attachement réel à une IA.
Certains utilisateurs attribuent des intentions, des souvenirs, des émotions à leur assistant vocal ou chatbot préféré.
Ce glissement vers une relation asymĂ©trique, oĂč lâhumain pense ĂȘtre Ă©coutĂ© ou compris alors quâil ne lâest pas, soulĂšve une question Ă©thique centrale :
Est-il acceptable de simuler de lâempathie sans jamais en Ă©prouver ?
âïžÂ 4. Ce que la philosophie et la sociologie nous disent
« Un automate nâest pas un ĂȘtre. Mais il peut, pour nous, devenir un autre. »â Jean Baudrillard, La transparence du mal
La philosophie de la technique, à travers des penseurs comme Jacques Ellul, Baudrillard, ou plus récemment Luciano Floridi, alerte sur la maniÚre dont les technologies façonnent nos perceptions.
Les IA gĂ©nĂ©ratives ne sont pas seulement des outils, elles deviennent des agents narratifs. Leur langage, leur voix, leur apparence visuelle dans les interfaces sont conçus pour Ă©voquer la chaleur humaine. Câest un travail de scĂ©narisation Ă©motionnelle, qui mobilise les leviers du théùtre, du cinĂ©ma, et de la psychologie comportementale.
La sociologue Antoinette Rouvroy parle ici de «âŻgouvernementalité algorithmiqueâŻÂ»Â :
Ce nâest plus la loi ou le discours qui oriente nos comportements, mais la suggestion douce, invisible, des systĂšmes algorithmiques â calibrĂ©s pour maximiser lâengagement.
đ 5. LâIA dans lâĂ©conomie de lâĂ©motion
Nous vivons dans un monde oĂč lâĂ©conomie de lâattention est saturĂ©e. Pour capter lâattention, il faut sĂ©duire, rassurer, Ă©mouvoir. LâIA devient alors un levier dâingĂ©nierie affective, qui rĂ©pond Ă un triple impĂ©ratif :
ĂȘtre utile (rĂ©pondre Ă une demande),
ĂȘtre aimable (plaire Ă lâutilisateur),
ĂȘtre rentable (gĂ©nĂ©rer de la valeur ou des donnĂ©es exploitables).
Câest ce que jâappelle le passage de lâoutil technique Ă lâartefact Ă©motionnel. LâIA ne se contente plus de nous assister â elle nous charme. Mais Ă quel prix ?
đ Conclusion
Lâintelligence artificielle ne cherche pas Ă nous comprendre. Elle cherche Ă nous faire croire quâelle nous comprend â parce que câest efficace, confortable, et profitable.
Ce nâest pas de la technologie au service de lâĂ©motion, mais de lâĂ©motion au service de la technologie.
Nous devons donc, en tant quâĂ©ducateurs, citoyens, professionnels, interroger cette mutation. Non pour la rejeter, mais pour en prendre conscience, pour mieux la cadrer, pour prĂ©server lâhumain derriĂšre lâillusion du lien.
Â
đ Annexe â Bibliographie acadĂ©mique
𧠠Philosophie & éthique
Jean Baudrillard, La transparence du mal, Galilée, 1990.
Jacques Ellul, Le systÚme technicien, Calmann-Lévy, 1977.
Luciano Floridi, The Ethics of Information, Oxford, 2013.
Nick Bostrom, Superintelligence, Oxford University Press, 2014.
đïžÂ Sociologie & anthropologie
Sherry Turkle, Alone Together, Basic Books, 2011.
Catherine Malabou, La plasticitĂ© au soir de lâĂ©criture, LĂ©o Scheer, 2004.
Antoinette Rouvroy, La gouvernementalité algorithmique, 2011.
đ Marketing & design
Seth Godin, This is Marketing, Portfolio, 2018.
Patrick Lehnisch, Le marketing émotionnel, Dunod, 2022.
Kate Crawford, Atlas of AI, Yale University Press, 2021.
đŹÂ Interaction homme-machine
Joseph Weizenbaum, Computer Power and Human Reason, 1976.
Donald Norman, The Design of Everyday Things, MIT Press, 1988.
Reeves & Nass, The Media Equation, CSLI Publications, 1996.
đ Normes & rĂ©gulation
UNESCO, Recommendation on the Ethics of Artificial Intelligence, 2021.
CNIL, IA et éthique : quels garde-fous ?, Dossier, 2023.
Â





Comments