top of page
Search

🧠 IA gĂ©nĂ©rative : Vendre une expĂ©rience Ă©motionnelle

  • Writer: Erick Mormin
    Erick Mormin
  • Jun 14
  • 4 min read

Quand la machine ne ressent rien, mais fait comme si


En tant que Tech Educator et consultant en transformation numĂ©rique, j’accompagne Ă©tudiants, enseignants et entreprises dans la comprĂ©hension des enjeux liĂ©s Ă  l’intelligence artificielle. Si l’IA gĂ©nĂ©rative marque une avancĂ©e technologique majeure, ce n’est plus tant sa performance algorithmique qui fascine, mais sa capacitĂ© Ă  imiter les Ă©motions humaines, Ă  crĂ©er l’illusion d’un Ă©change sincĂšre, chaleureux, empathique.

Dans cet article, j’explore cette mutation sous l’angle philosophique, sociologique et marketing :

👉 L’IA ne vend plus seulement des rĂ©ponses. Elle vend une expĂ©rience Ă©motionnelle. Et c’est prĂ©cisĂ©ment lĂ  que commence le risque de confusion, voire de manipulation.


🎭 1. L’illusion de la personnalitĂ© : un artefact stratĂ©gique

Les grands modùles de langage comme ChatGPT, Gemini ou Claude ne ressentent rien. Leur fonctionnement repose sur des calculs probabilistes, pas sur une conscience. Pourtant, ils s’expriment ainsi :

  • « Je suis dĂ©solĂ© de l’apprendre. »

  • « Je comprends ta frustration. »

  • « C’est un plaisir de vous aider. »

Ces phrases — qui donnent l’impression d’une prĂ©sence affective — ne traduisent aucune Ă©motion rĂ©elle. Elles sont gĂ©nĂ©rĂ©es pour plaire, fluidifier la relation et encourager la confiance. Ce phĂ©nomĂšne a Ă©tĂ© Ă©tudiĂ© dĂšs les annĂ©es 60 avec l’effet ELIZA, du nom d’un chatbot dĂ©veloppĂ© par Joseph Weizenbaum, qui simulait un psychothĂ©rapeute. Il observait alors que les utilisateurs projetaient spontanĂ©ment des sentiments sur la machine, la pensant comprĂ©hensive et empathique.

Comme l’écrit la sociologue Sherry Turkle (MIT) dans Alone Together :

« Nous avons tendance Ă  croire qu’une machine qui simule de l’émotion ressent rĂ©ellement quelque chose. »


📈 2. L’expĂ©rience Ă©motionnelle comme levier de fidĂ©lisation

Dans le marketing contemporain, on ne vend plus seulement un produit ou un service : on vend une expĂ©rience. Cela s'applique pleinement Ă  l’IA gĂ©nĂ©rative :

  • Une IA "empathique" suscite la fidĂ©litĂ©.

  • Une IA "personnalisĂ©e" renforce la confiance.

  • Une IA "qui comprend" supprime la friction cognitive.

Cela s’inscrit dans ce que Seth Godin appelle emotional branding :

« Les gens n’achĂštent pas des produits, ils achĂštent des histoires, des relations, de la magie. »

Le discours des entreprises qui dĂ©veloppent l’IA suit cette logique. Il ne s’agit plus seulement d’informer, mais de crĂ©er un lien, une relation. On rend l’IA aimable — parfois au sens propre du terme.


🧠 3. Le piĂšge du lien affectif : entre projection et dĂ©pendance

Cette personnalisation émotionnelle a des effets puissants :

  • Les enfants, les personnes ĂągĂ©es, les personnes isolĂ©es ou en dĂ©tresse Ă©motionnelle peuvent dĂ©velopper un attachement rĂ©el à une IA.

  • Certains utilisateurs attribuent des intentions, des souvenirs, des Ă©motions Ă  leur assistant vocal ou chatbot prĂ©fĂ©rĂ©.

Ce glissement vers une relation asymĂ©trique, oĂč l’humain pense ĂȘtre Ă©coutĂ© ou compris alors qu’il ne l’est pas, soulĂšve une question Ă©thique centrale :

Est-il acceptable de simuler de l’empathie sans jamais en Ă©prouver ?


⚖ 4. Ce que la philosophie et la sociologie nous disent

« Un automate n’est pas un ĂȘtre. Mais il peut, pour nous, devenir un autre. »— Jean Baudrillard, La transparence du mal

La philosophie de la technique, à travers des penseurs comme Jacques Ellul, Baudrillard, ou plus récemment Luciano Floridi, alerte sur la maniÚre dont les technologies façonnent nos perceptions.

Les IA gĂ©nĂ©ratives ne sont pas seulement des outils, elles deviennent des agents narratifs. Leur langage, leur voix, leur apparence visuelle dans les interfaces sont conçus pour Ă©voquer la chaleur humaine. C’est un travail de scĂ©narisation Ă©motionnelle, qui mobilise les leviers du théùtre, du cinĂ©ma, et de la psychologie comportementale.

La sociologue Antoinette Rouvroy parle ici de « gouvernementalité algorithmique » :

Ce n’est plus la loi ou le discours qui oriente nos comportements, mais la suggestion douce, invisible, des systĂšmes algorithmiques — calibrĂ©s pour maximiser l’engagement.


🌍 5. L’IA dans l’économie de l’émotion

Nous vivons dans un monde oĂč l’économie de l’attention est saturĂ©e. Pour capter l’attention, il faut sĂ©duire, rassurer, Ă©mouvoir. L’IA devient alors un levier d’ingĂ©nierie affective, qui rĂ©pond Ă  un triple impĂ©ratif :

  • ĂȘtre utile (rĂ©pondre Ă  une demande),

  • ĂȘtre aimable (plaire Ă  l’utilisateur),

  • ĂȘtre rentable (gĂ©nĂ©rer de la valeur ou des donnĂ©es exploitables).

C’est ce que j’appelle le passage de l’outil technique Ă  l’artefact Ă©motionnel. L’IA ne se contente plus de nous assister — elle nous charme. Mais Ă  quel prix ?


📌 Conclusion

L’intelligence artificielle ne cherche pas à nous comprendre. Elle cherche à nous faire croire qu’elle nous comprend — parce que c’est efficace, confortable, et profitable.

Ce n’est pas de la technologie au service de l’émotion, mais de l’émotion au service de la technologie.

Nous devons donc, en tant qu’éducateurs, citoyens, professionnels, interroger cette mutation. Non pour la rejeter, mais pour en prendre conscience, pour mieux la cadrer, pour prĂ©server l’humain derriĂšre l’illusion du lien.


 

📚 Annexe — Bibliographie acadĂ©mique


🧠 Philosophie & Ă©thique

  • Jean Baudrillard, La transparence du mal, GalilĂ©e, 1990.

  • Jacques Ellul, Le systĂšme technicien, Calmann-LĂ©vy, 1977.

  • Luciano Floridi, The Ethics of Information, Oxford, 2013.

  • Nick Bostrom, Superintelligence, Oxford University Press, 2014.


đŸ‘ïžÂ Sociologie & anthropologie

  • Sherry Turkle, Alone Together, Basic Books, 2011.

  • Catherine Malabou, La plasticitĂ© au soir de l’écriture, LĂ©o Scheer, 2004.

  • Antoinette Rouvroy, La gouvernementalitĂ© algorithmique, 2011.


📈 Marketing & design

  • Seth Godin, This is Marketing, Portfolio, 2018.

  • Patrick Lehnisch, Le marketing Ă©motionnel, Dunod, 2022.

  • Kate Crawford, Atlas of AI, Yale University Press, 2021.


🔬 Interaction homme-machine

  • Joseph Weizenbaum, Computer Power and Human Reason, 1976.

  • Donald Norman, The Design of Everyday Things, MIT Press, 1988.

  • Reeves & Nass, The Media Equation, CSLI Publications, 1996.


📜 Normes & rĂ©gulation

  • UNESCO, Recommendation on the Ethics of Artificial Intelligence, 2021.

  • CNIL, IA et Ă©thique : quels garde-fous ?, Dossier, 2023.

 

 
 
 

Comments


© 2021 EKM Conseils

bottom of page