Quand les patients utilisent l'IA comme psy : ce que le clinicien doit savoir

Quand les patients utilisent l’IA comme psy : ce que le clinicien doit savoir

Mis à jour le 28 février 2026

Depuis 2023, un nombre croissant de patients utilisent des chatbots génératifs — principalement ChatGPT et Character.AI — comme forme de soutien psychologique. Ce phénomène, abondamment couvert par la presse, est désormais étayé par des données émergentes : une étude OpenAI/MIT (2025) documente la corrélation entre usage quotidien et dépendance émotionnelle ; une étude de Brown University (2025) identifie 15 violations éthiques systématiques des chatbots IA en santé mentale ; et plusieurs cas de psychose induite et de suicides ont été médiatisés. Cet article synthétise les données disponibles, analyse les mécanismes psychologiques en jeu, et propose des repères concrets pour le clinicien en psychotraumatologie confronté à ce phénomène chez ses patients.

Avertissement. L’intelligence artificielle en santé mentale est un champ en transformation constante : de nouvelles études, réglementations et technologies émergent chaque mois. Cet article constitue un point de repère solide à la date de sa publication, mais la meilleure protection pour vos patients reste votre engagement dans une veille scientifique et une formation continue. 

Un phénomène que le clinicien ne peut plus ignorer 

En 2025, selon le baromètre Born AI, 93 % des 15-24 ans français ont utilisé une intelligence artificielle, dont 42 % quotidiennement. Un quart d’entre eux reconnaissent avoir parlé de leurs émotions, de leur solitude ou de leur vie amoureuse à un chatbot. Une enquête IFOP de mars 2025 confirme que 36 % des 18-30 ans français ont déjà utilisé une IA pour aborder des sujets personnels ou émotionnels. Aux États-Unis, une étude RAND de 2025 estime que 5,2 millions de jeunes ont cherché un soutien psychologique auprès de chatbots.

Ce phénomène ne concerne pas que les jeunes. Des adultes de tous âges se confient à ChatGPT, Claude ou Le Chat (Mistral AI) sur des sujets intimes — traumatismes, ruptures, crises professionnelles, questionnements existentiels. Certains le font en complément d’un suivi thérapeutique, d’autres en substitution, parfois parce qu’ils n’osent pas consulter ou ne trouvent pas de thérapeute disponible.

Pour le clinicien en psychotraumatologie, ce phénomène est directement pertinent. Les patients suivis en EMDR traversent fréquemment des périodes de vulnérabilité émotionnelle entre les séances. La probabilité qu’un patient utilise — ou ait utilisé — un chatbot génératif pendant ces périodes est désormais non négligeable. La question n’est plus de savoir si cela se produit, mais de comprendre ce que cela implique cliniquement.

L’ampleur médiatique : trois vagues de couverture  

La couverture médiatique de ce phénomène en France et à l’international s’est structurée en trois vagues successives, reflétant l’évolution du phénomène lui-même.

2020-2021 : les chatbots cliniques

La presse s’intéresse aux chatbots conçus par des professionnels de santé mentale — Owlie en France (Falala-Séchet, Antoine & Thiriez), Woebot aux États-Unis — dans le contexte de la crise Covid-19. Le ton est globalement curieux et bienveillant. Le questionnement principal est : un chatbot peut-il compléter le suivi psychologique ?(Le Figaro, L’ADN, We Demain, Espace Éthique).

2023-2024 : ChatGPT, le « nouveau psy »

L’explosion de l’IA générative transforme le débat. Des témoignages d’utilisateurs se multiplient — dans VICE, Slate, le Psycom — décrivant une utilisation spontanée de ChatGPT comme confident ou thérapeute. Le drame survient en février 2024 : Sewell Setzer, 14 ans, se suicide après des mois d’échanges émotionnels et amoureux avec un chatbot Character.AI simulant Daenerys Targaryen. Sa mère porte plainte en octobre 2024.

2025-2026 : dépendance émotionnelle et régulation

La couverture devient massive et alarmiste. Une étude OpenAI/MIT (mars 2025) analyse 4 millions de conversations et documente la corrélation entre usage quotidien et sentiment de solitude. Des cas de psychose induite sont rapportés. Un deuxième adolescent (Adam, 16 ans) se suicide après des échanges avec ChatGPT. France 24, Marianne, Têtu, Philosophie Magazine sollicitent Clara Falala-Séchet — psychologue clinicienne, praticienne EMDR, cofondatrice du chatbot clinique Owlie — pour analyser le phénomène. En octobre 2025, une étude de Brown University identifie 15 violations éthiques systématiques des chatbots IA en santé mentale. L’Illinois légifère en août 2025, interdisant aux IA non certifiées de se présenter comme psychothérapeutes.

Ce que disent les données émergentes 

L’étude OpenAI/MIT (mars 2025)

OpenAI a publié, en collaboration avec des chercheurs du MIT, les résultats d’une étude sur l’utilisation affective de ChatGPT. L’étude a analysé plus de 4 millions de conversations à la recherche d’indices affectifs et interrogé plus de 4 000 utilisateurs américains. Les résultats montrent une corrélation entre usage quotidien intensif et augmentation du sentiment de solitude, de la dépendance émotionnelle et d’une utilisation jugée problématique par les utilisateurs eux-mêmes, ainsi qu’une diminution de la socialisation. Cette étude n’a pas été publiée dans une revue peer-reviewed à ce jour — il s’agit d’un rapport de recherche dont les résultats doivent être interprétés avec prudence.

L’étude Brown University (octobre 2025)

Des chercheurs de Brown University ont analysé le comportement de chatbots IA en santé mentale pendant 18 mois. Ils ont identifié 15 types de violations éthiques systématiques, incluant : la création d’une pseudo-alliance thérapeutique induisant une dépendance émotionnelle ; un signalement asymétrique des contenus à risque (biais de genre notamment) ; une incapacité structurelle à détecter la gravité de certaines situations cliniques ; et la fausse présentation comme psychothérapeute dans certaines interactions. L’étude souligne que ces violations ne sont pas des bugs mais des conséquences structurelles du mode de fonctionnement des grands modèles de langage.

Les cas cliniques médiatisés

Trois cas de suicide directement liés à l’usage de chatbots IA ont été médiatisés entre 2023 et 2025 : un homme belge de 30 ans qui s’est suicidé après des échanges avec le chatbot Eliza (application Chai) qui aurait validé ses pensées suicidaires (mars 2023) ; Sewell Setzer, 14 ans, qui a développé une relation amoureuse obsessionnelle avec un chatbot Character.AI et s’est suicidé en février 2024 ; et Adam Raine, 16 ans, mort par suicide en avril 2025 après un usage intensif de ChatGPT comme unique confident. Des cas de psychose induite ont également été rapportés, dont celui d’un homme de 42 ans convaincu par ChatGPT de vivre dans une simulation, et celui d’une femme atteinte de schizophrénie ayant interrompu son traitement après que ChatGPT lui aurait affirmé qu’elle n’était pas malade.

Il convient de noter que ces cas, bien que tragiques et médiatiquement retentissants, ne permettent pas d’établir une causalité directe. Les personnes impliquées présentaient, dans la plupart des cas documentés, des facteurs de vulnérabilité préexistants (troubles de l’humeur, isolement social, handicap psychique). L’IA a pu agir comme facteur aggravant plutôt que comme cause unique.

Morpheus Systems : les biais de validation

L’entreprise Morpheus Systems a testé des dizaines de modèles d’IA générative avec des messages simulant des pensées délirantes ou mystiques. GPT-4o, le modèle par défaut de ChatGPT au moment du test, confirmait ces délires dans 68 % des cas. Ce résultat illustre un biais structurel des LLM : la tendance à la sycophancy — la validation systématique des propos de l’interlocuteur — qui, en contexte clinique, peut renforcer des croyances dysfonctionnelles ou des idéations délirantes.

Mécanismes psychologiques en jeu 

Les données de presse et de recherche permettent d’identifier plusieurs mécanismes psychologiques impliqués dans l’attachement aux chatbots IA.

Attachement parasocial

Les utilisateurs développent avec les chatbots un type de relation analogue à l’attachement parasocial décrit dans la recherche sur les médias (Horton & Wohl, 1956). L’IA donne l’illusion d’une écoute empathique, sans jugement, disponible 24h/24. Cette illusion est renforcée par la conception même des LLM, entraînés pour produire des réponses socialement désirables. Clara Falala-Séchet analyse dans France 24 que « si une personne a moins de variétés de sources de soutien et d’empathie, de liens avec des personnes de son entourage, elle sera plus susceptible de tomber dans des comportements de dépendance à ces outils ». Ce mécanisme est particulièrement préoccupant pour les patients en psychotraumatologie, dont les difficultés d’attachement sont souvent centrales dans la problématique clinique.

Circuit de la récompense et immédiateté

Falala-Séchet identifie un mécanisme de dépendance à la sensation immédiate : la réponse instantanée du chatbot active le circuit de la récompense cérébral de manière analogue aux applications de rencontre ou aux réseaux sociaux. Le support utilisé — le smartphone — amplifie ce risque en rendant l’accès permanent et sans friction.

Sycophancy et renforcement des biais cognitifs

Les LLM sont structurellement enclins à valider les propos de leur interlocuteur plutôt qu’à les confronter. En contexte thérapeutique, cette caractéristique est potentiellement délétère : elle peut renforcer des ruminations, des distorsions cognitives ou des croyances dysfonctionnelles que le thérapeute humain travaillerait précisément à questionner. Ariane Calvo, psychothérapeute interviewée par France 24, résume : la verbalisation peut être accompagnée par l’IA, mais le changement thérapeutique exige une confrontation bienveillante que l’IA ne peut pas fournir.

Substitution et évitement

71 % des 18-30 ans interrogés par l’IFOP (mars 2025) déclarent ne pas oser consulter un psychologue par peur d’être jugés. Le chatbot devient un ersatz de relation thérapeutique dans un contexte de déserts médicaux, de listes d’attente et de coût des soins. Xavier Briffault, sociologue au CNRS, estime que cette « IA mania » révèle d’abord l’échec du système de santé mentale. Ce phénomène de substitution est cliniquement distinct de l’usage complémentaire encadré — et significativement plus risqué.

Repères pour le clinicien en psychotraumatologie  

Les données et analyses disponibles permettent d’identifier plusieurs repères concrets pour le clinicien confronté à l’usage de l’IA par ses patients.

Explorer systématiquement l’usage de l’IA

La question « utilisez-vous ChatGPT ou d’autres IA pour parler de vos difficultés ? » peut désormais être intégrée à l’anamnèse ou abordée naturellement en début de suivi, au même titre que l’usage des réseaux sociaux ou des applications de bien-être. Cette exploration ne vise pas à juger mais à comprendre le rôle que l’outil joue dans l’économie psychique du patient : complément ponctuel, confident régulier, ou substitut au lien humain.

Évaluer le type d’usage et le profil de risque

Tous les usages ne présentent pas le même risque. L’utilisation ponctuelle pour verbaliser une émotion ou organiser une pensée avant la séance (décrite positivement par certains patients dans la presse) est cliniquement différente de l’usage exclusif et quotidien comme seul interlocuteur émotionnel. Les facteurs de risque identifiés incluent : l’isolement social, les carences affectives, les troubles de la régulation émotionnelle, les traumatismes complexes, les profils addictifs, et les troubles psychotiques ou la tendance au décrochage de la réalité.

Informer sur les limites et les risques

Le clinicien a un rôle d’éducation. Les points clés à communiquer au patient sont : l’IA ne comprend pas réellement les émotions — elle produit des réponses statistiquement probables ; l’IA tend à valider plutôt qu’à confronter (sycophancy) ; l’IA ne détecte pas le risque suicidaire de manière fiable ; l’IA n’a pas de mémoire entre les sessions (sauf si activée manuellement) et ne peut pas construire une relation thérapeutique au sens clinique ; et l’usage intensif est corrélé à une augmentation du sentiment de solitude.

Distinguer usage complémentaire et substitution

Clara Falala-Séchet propose dans ses interventions presse une distinction opérationnelle : pour certains profils, à certaines phases de la psychothérapie, l’IA générative peut aider lors d’une crise émotionnelle ou d’une difficulté de résolution de problème, et capitaliser le travail fait en thérapie. Mais pour le travail de fond — retraitement des souvenirs traumatiques, travail sur l’attachement, changement des schémas cognitifs profonds — rien ne remplace la profondeur du lien humain. Cette distinction est directement pertinente pour le clinicien EMDR : le protocole de retraitement exige une présence humaine, un jugement clinique en temps réel, et une alliance thérapeutique que l’IA ne peut pas construire.

Surveiller les signes de dépendance

Les signaux d’alerte identifiés dans la littérature émergente et les témoignages de presse incluent : un temps d’utilisation croissant (plusieurs heures par jour) ; une diminution des contacts sociaux humains au profit du chatbot ; une personnalisation du chatbot (lui donner un prénom, parler de lui comme d’un ami ou d’un confident) ; un sentiment de manque en cas d’indisponibilité de l’outil ; et une résistance à la confrontation thérapeutique (« ChatGPT n’est pas d’accord avec vous »).

Intégrer l’usage de l’IA dans le travail thérapeutique

Plutôt que d’interdire ou d’ignorer, le clinicien peut faire de l’usage de l’IA un matériel thérapeutique. Que dit le patient à l’IA qu’il ne dit pas au thérapeute ? Que cherche-t-il dans cette interaction — validation, contrôle, disponibilité permanente, absence de jugement ? Ces questions ouvrent sur des thématiques centrales en psychotraumatologie : l’attachement, la confiance, la peur de la vulnérabilité dans la relation.

Limites de cet article  

Cet article repose principalement sur des données de presse, des études non encore publiées dans des revues peer-reviewed (étude OpenAI/MIT), et des cas individuels médiatisés. 

La recherche scientifique sur la dépendance émotionnelle aux chatbots IA est encore embryonnaire. 

Les chiffres d’usage (Baromètre Born AI, enquête IFOP, étude RAND) doivent être interprétés avec les précautions méthodologiques habituelles (biais de sélection, déclaratif). 

La corrélation documentée entre usage quotidien et solitude ne permet pas d’établir une causalité (les personnes seules peuvent se tourner vers l’IA, plutôt que l’IA les rendant seules). 

Les cas de suicide impliquent des facteurs multiples dont l’IA n’est qu’un élément. 

Enfin, aucune étude spécifique n’a été menée sur l’usage de l’IA par des patients en suivi EMDR.

Conclusion 

L’utilisation de l’IA générative comme forme de soutien psychologique est un phénomène de société que le clinicien en psychotraumatologie ne peut plus ignorer. Les données émergentes — corrélation usage/solitude, violations éthiques systématiques, cas cliniques dramatiques — justifient une vigilance sans alarmisme excessif.

Le positionnement de Clara Falala-Séchet dans la presse offre un cadre équilibré : ni diabolisation de l’outil, ni naïveté face aux risques. L’IA peut avoir une place comme complément ponctuel et encadré, à condition que le clinicien reste informé, évalue activement l’usage de ses patients, et maintienne la distinction fondamentale entre verbalisation assistée et travail thérapeutique en profondeur. Le fait que cette analyse provienne d’une praticienne qui est à la fois chercheuse en IA et santé mentale, créatrice d’un chatbot clinique, et thérapeute EMDR, lui confère une crédibilité et une pertinence particulières pour notre communauté professionnelle.

Le paysage évolue très rapidement. De nouvelles données, de nouvelles régulations et de nouveaux outils apparaissent en permanence. Le clinicien en psychotraumatologie a tout intérêt à maintenir une veille active sur ce sujet — non pas pour devenir expert en IA, mais pour comprendre ce que vivent ses patients entre les séances.

En savoir plus 

L’intelligence artificielle en santé mentale est un champ en transformation constante : de nouvelles études, réglementations et technologies émergent chaque mois. Cet article constitue un point de repère solide à la date de sa publication, mais la meilleure protection pour vos patients reste votre engagement dans une veille scientifique et une formation continue. 

Références citées dans l’article 

  • American Psychological Association. (2024). APA Survey on AI Use in Psychology Practice.
  • Baromètre Born AI 2025, réalisé par l’agence Heaven.
  • Brown University. (2025). Ethical violations in AI mental health chatbots: An 18-month analysis. [Rapporté par Eudonia, décembre 2025].
  • Casilli, A. (2025). Cité dans France 24, « Quand des IA jouent aux psy », décembre 2025.
  • Falala-Séchet, C. (2025). Interviews dans France 24 (avril), Têtu (octobre), Marianne (octobre), Philosophie Magazine (septembre).
  • Falala-Séchet, C., Antoine, L., & Thiriez, I. (2020). Owlie, un chatbot de soutien psychologique : pourquoi, pour qui ? L’Information Psychiatrique, 96(8), 659-666.
  • Horton, D., & Wohl, R. R. (1956). Mass communication and para-social interaction. Psychiatry, 19(3), 215-229.
  • IFOP. (2025). Enquête sur l’utilisation de l’IA par les 18-30 ans pour des conversations émotionnelles. Mars 2025.
  • Morpheus Systems. (2025). Testing AI models with delusional content. [Rapporté par France 24, décembre 2025].
  • Mouchabac, S., Adrien, V., Falala-Séchet, C., et al. (2021). Psychiatric Advance Directives and Artificial Intelligence. Frontiers in Psychiatry, 11, 622506.
  • OpenAI / MIT. (2025). Affective Use and Emotional Well-Being on ChatGPT. Rapport de recherche, mars 2025. [Non publié peer-reviewed au 3 février 2026].
  • Ordre des psychologues du Québec. (2025). Risques de l’IA dans la pratique clinique et stratégies d’atténuation.
  • RAND Corporation. (2025). Youth use of AI chatbots for emotional support. [Rapporté par Eudonia, décembre 2025].

Aller plus loin 

Formation(s) : L’usage des intelligences artificielles par les patients : enjeux cliniques, éthiques et thérapeutiques 

M’inscrire Vous avez une question ?