
Chatbot clinique vs. chatbot génératif : que doit savoir le clinicien ?
Mis à jour le 20 février 2026
Deux modèles de chatbots en santé mentale coexistent aujourd’hui. D’une part, les chatbots conçus par des cliniciens selon une logique thérapeutique explicite — Owlie (Falala-Séchet, Antoine & Thiriez, 2020), Woebot (Fitzpatrick et al., 2017), Tess (Fulmer et al., 2018). D’autre part, les chatbots génératifs — soit utilisés spontanément par les patients (ChatGPT, Character.AI), soit conçus par des chercheurs dans un cadre expérimental (Therabot ; Heinz et al., 2025).
Cet article décrit factuellement chaque modèle : choix de conception, fondements thérapeutiques, données publiées et limites identifiées. Il propose un tableau comparatif structuré et situe ces outils dans le paysage actuel de la psychotraumatologie.
Avertissement. L’intelligence artificielle en santé mentale est un champ en transformation constante : de nouvelles études, réglementations et technologies émergent chaque mois. Cet article constitue un point de repère solide à la date de sa rédaction (février 2026), mais la meilleure protection pour vos patients reste votre engagement dans une veille scientifique et une formation continues.
Le paysage des outils numériques en santé mentale s’est profondément transformé en quelques années. Deux générations de chatbots coexistent désormais, reposant sur des logiques de conception radicalement différentes.
La première génération, apparue entre 2016 et 2020, regroupe des chatbots conçus par des professionnels de santé mentale. Leur architecture repose sur des règles explicites — arbres décisionnels, correspondance de mots-clés — et leur contenu est directement issu de modèles thérapeutiques validés, principalement les thérapies comportementales et cognitives (TCC). En France, Owlie, développé par une psychologue clinicienne, un psychiatre et un pair aidant (Falala-Séchet, Antoine & Thiriez, 2020), constitue un exemple documenté dans la littérature peer-reviewed. Woebot (Fitzpatrick et al., 2017) et Tess (Fulmer et al., 2018) illustrent le même modèle dans le monde anglophone.
La seconde génération émerge à partir de 2023 avec l’essor de l’IA générative. Elle comprend deux phénomènes distincts : l’usage spontané de chatbots généralistes (ChatGPT, Character.AI) par des patients en quête de soutien psychologique, et la conception de chatbots génératifs explicitement destinés à un usage thérapeutique, comme Therabot, premier chatbot génératif ayant fait l’objet d’un essai contrôlé randomisé national publié dans NEJM AI (Heinz et al., 2025).
Ces deux modèles diffèrent par leur architecture technique, leur cadre éthique, leur positionnement clinique et leur niveau de preuve. Cet article les décrit factuellement et les compare de manière structurée. L’objectif est de fournir au clinicien en psychotraumatologie un cadre de lecture pour évaluer les outils que ses patients utilisent — ou pourraient utiliser — entre les séances.
Les chatbots conçus par des cliniciens : une logique thérapeutique explicite
Owlie : un chatbot francophone de soutien psychologique
Owlie est un agent conversationnel de soutien psychologique disponible sur Facebook Messenger, 24 heures sur 24. Il a été développé bénévolement, sans financement, par Clara Falala-Séchet (psychologue clinicienne), Igor Thiriez (psychiatre) et Lee Antoine (pair aidant en santé mentale). La publication de référence décrit les motivations, la conception et les premiers résultats cliniques du projet (Falala-Séchet, Antoine & Thiriez, 2020).
Contexte de création. Le projet est né de constats cliniques convergents : inégalités territoriales d’accès aux soins de santé mentale en France, délais d’attente longs entre consultations, isolement des patients hors séances, absence d’outils disponibles lors des moments de crise nocturne. Les créateurs ont par ailleurs constaté que les applications mobiles existantes — plus de 1 500 pour les seuls troubles de l’humeur (Iakimova et al., 2017) — souffraient d’un manque de personnalisation et d’interactivité, avec des taux d’adhésion variables à trois mois, entre 55 % et 96 % selon les études (Donkin et al., 2013 ; Anderson et al., 2016). Le chatbot visait à répondre à la demande de dialogue identifiée par Fadhil et Gabrielli (2017) comme facteur clé d’adhérence aux outils numériques en santé.
Architecture technique. Owlie repose sur une IA à base de règles (rule-based), combinant des menus à choix et une reconnaissance de mots-clés dans le langage naturel. Une caractéristique notable pour l’époque : l’utilisateur peut écrire librement, et non seulement cliquer sur des boutons prédéfinis. Cela a nécessité la construction d’un arbre décisionnel anticipant les patterns de phrases probables. Les temps de réponse et le ton des messages ont été itérativement affinés avec des communautés de patients via les réseaux sociaux.
Fondements thérapeutiques. Le contenu est transdiagnostique : gestion des émotions, distorsions cognitives, questionnements existentiels. Les exercices (plus de 90 au moment de la publication) sont issus des TCC de première vague (activation comportementale), de deuxième vague (restructuration cognitive) et de troisième vague (thérapie comportementale dialectique, mindfulness, psychologie positive, thérapie d’acceptation et d’engagement, thérapie centrée sur les émotions). Le chatbot inclut également des modules d’éducation thérapeutique, des exercices de respiration, de cohérence cardiaque et des programmes d’activité physique adaptés.
Cahier des charges éthique et clinique. Six axes ont guidé la conception : échange libre de l’utilisateur ; exercices adaptés au type de difficulté et à l’intensité de la souffrance ; éducation thérapeutique sous forme de jeux ; suivi des symptômes (tracking humeur) ; gestion des crises avec détection du risque suicidaire et réorientation d’urgence ; relances personnalisées. En accord avec le Code de déontologie des psychologues, le chatbot pose ses limites dès le premier échange. Le choix d’un avatar animal (une chouette) vise explicitement à réduire les projections anthropomorphiques. Les recherches respectent les dispositions de la convention d’Helsinki.
Données cliniques préliminaires. Deux études ont été menées : une étude quantitative montrant une réduction significative des pensées dysfonctionnelles et des symptômes dépressifs chez des patients suivis en parallèle par un professionnel ; et une étude qualitative sur le vécu des utilisateurs, présentée à la conférence IVA en 2019 (Falala-Séchet et al., 2019). Ces résultats sont préliminaires — aucun essai contrôlé randomisé à grande échelle n’a été publié. Au moment de la publication, Owlie comptait environ 16 000 utilisateurs.
Il est à noter que Clara Falala-Séchet avait précédemment présenté le prototype « Paul », une IA conversationnelle spécialisée dans le suivi de patients présentant un trouble dépressif caractérisé (poster, WACAI, 2018), illustrant une démarche de recherche continue dans ce domaine.
Woebot : le chatbot de TCC le plus documenté
Woebot est issu d’une startup de l’université de Stanford, lancé en 2017. Conçu par Alison Darcy (psychologue clinicienne) et son équipe, il repose sur les principes des TCC et délivre des interventions structurées — psychoéducation, restructuration cognitive, suivi de l’humeur — via une interface conversationnelle. L’essai initial (Fitzpatrick, Darcy & Vierhile, 2017) a porté sur une population étudiante (N=70, âge moyen 22 ans) répartie en deux groupes : chatbot Woebot vs. guide de self-help sur la dépression. Après deux semaines, le groupe Woebot montrait une réduction significative des symptômes dépressifs et anxieux.
Woebot constitue probablement le chatbot clinique en santé mentale le plus évalué à ce jour. Depuis l’essai initial, l’outil a fait l’objet de développements supplémentaires (Woebot Health) et a obtenu en 2023 la désignation de Breakthrough Device par la FDA américaine pour le traitement de la dépression chez les adolescents. L’architecture reste fondamentalement rule-based, avec un contenu thérapeutique structuré.
Tess et autres chatbots cliniques
Tess, développé par X2AI, est un chatbot utilisant une IA psychologique intégrative. L’essai de Fulmer et al. (2018) a montré une réduction significative des symptômes dépressifs et anxieux dans un échantillon d’étudiants universitaires (N=75), comparé à un groupe contrôle ayant accès à un ebook de psychoéducation. Tess adapte ses réponses en fonction des émotions détectées dans les messages de l’utilisateur, tout en restant dans un cadre rule-based amélioré.
D’autres projets méritent mention : le prototype d’IA conversationnelle pour le suivi de jeunes patients atteints de schizophrénie décrit par D’Alfonso et al. (2017), ou encore les travaux pionniers de Bickmore et al. (2005) sur l’alliance thérapeutique avec un agent conversationnel dans le cadre de la promotion des comportements de santé.
Caractéristiques communes de cette première génération
Au-delà de leurs différences, ces chatbots partagent plusieurs caractéristiques structurelles. Premièrement, ils sont conçus par ou avec des professionnels de santé mentale, ce qui ancre leur contenu dans des modèles thérapeutiques identifiables. Deuxièmement, leur IA est principalement à base de règles, ce qui rend leurs réponses prévisibles et vérifiables. Troisièmement, ils se positionnent explicitement comme compléments à un suivi humain, jamais comme substituts. Quatrièmement, un cadre éthique est posé dès la conception : limites d’utilisation, consentement, gestion des crises. Cinquièmement, leurs données cliniques, bien que souvent préliminaires, sont publiées dans des revues à comité de lecture.
Les principales limites documentées de ces chatbots sont la rigidité des réponses (limitées par l’arbre décisionnel), la difficulté à gérer l’ambiguïté, l’ironie ou les demandes complexes (Aimé, 2017), et l’absence d’essais contrôlés randomisés à grande échelle pour la plupart d’entre eux.
Les chatbots génératifs en santé mentale : un changement de paradigme
L’usage spontané de ChatGPT et Character.AI
À partir de 2023, un phénomène cliniquement nouveau apparaît : des patients utilisent des chatbots génératifs généralistes — principalement ChatGPT (OpenAI) et Character.AI — comme forme de soutien psychologique, sans que ces outils aient été conçus à cette fin. Ces systèmes reposent sur des modèles de langage de grande taille (LLM) capables de générer des réponses fluides, empathiques en apparence, et contextuellement adaptées. Contrairement aux chatbots cliniques, ils ne suivent aucun protocole thérapeutique explicite.
Ce phénomène a fait l’objet d’une attention médiatique croissante en 2024-2025. Clara Falala-Séchet, forte de son expertise sur les chatbots cliniques, a été sollicitée par de nombreux médias français (Marianne, Le Figaro, Têtu, Philosophie Magazine) pour commenter les risques associés à cette utilisation, notamment les phénomènes de dépendance émotionnelle et d’attachement parasocial. Ces interventions relèvent de l’expertise clinique et de la vulgarisation — il ne s’agit pas de publications peer-reviewed — mais elles témoignent d’une préoccupation clinique croissante.
Les risques documentés de cet usage spontané incluent : l’absence de détection du risque suicidaire ou de réorientation vers les urgences ; la production de réponses factuellement inexactes (hallucinations) ; une tendance à la validation systématique des propos de l’utilisateur (sycophancy) ; la création de liens affectifs avec un agent non humain ; et l’absence totale de cadre éthique ou déontologique. La littérature sur ces risques reste émergente mais s’étoffe rapidement.
Therabot : un chatbot génératif conçu par des chercheurs
Therabot représente un modèle hybride : il utilise l’IA générative mais dans un cadre clinique structuré. Développé au Center for Technology and Behavioral Health de Dartmouth College, il repose sur des modèles de langage (Falcon-7B et LLaMA-2-70B) affinés par la technique QLoRA sur des dialogues thérapeute-patient rédigés par des professionnels, fondés sur les TCC de troisième vague.
L’essai de Heinz et al. (2025), publié dans NEJM AI, constitue le premier essai contrôlé randomisé national d’un chatbot génératif en santé mentale. L’étude a recruté 210 adultes présentant des symptômes cliniquement significatifs de dépression majeure (n=142), d’anxiété généralisée (n=116) ou de troubles alimentaires (n=89), randomisés entre Therabot (n=106) et liste d’attente (n=104). Après quatre semaines d’utilisation, les résultats montrent des tailles d’effet modérées à grandes sur les symptômes dépressifs, anxieux et alimentaires. L’alliance thérapeutique, mesurée par auto-questionnaire, a été évaluée comme comparable à celle rapportée avec des thérapeutes humains.
Therabot intègre un dispositif de sécurité : lorsque le système détecte un contenu à risque (idéation suicidaire), il propose d’appeler les services d’urgence ou une ligne de crise. Cependant, plusieurs limites méthodologiques doivent être notées : le design en liste d’attente (pas de comparateur actif), la durée brève de l’intervention (4 semaines) et du suivi (4 semaines supplémentaires), et le recrutement via publicités Meta, source potentielle de biais de sélection.
Les auteurs eux-mêmes concluent qu’aucun agent d’IA générative n’est prêt à fonctionner de manière totalement autonome en contexte clinique. Therabot marque néanmoins un tournant : il démontre qu’un chatbot génératif peut être conçu avec une rigueur méthodologique et produire des effets mesurables dans un cadre contrôlé.
Comparaison structurée : deux logiques, deux niveaux de preuve
Le tableau ci-dessous synthétise les principales dimensions de comparaison entre les deux modèles de chatbots. Il s’agit d’une description factuelle, non d’un jugement de valeur sur la supériorité d’un modèle sur l’autre.
| Dimension | Chatbots cliniques (Owlie, Woebot, Tess) | Chatbots génératifs (ChatGPT, Therabot) |
| Conception | Par des professionnels de santé mentale (psychologues, psychiatres, pairs aidants) | Par des ingénieurs (ChatGPT) ou par des chercheurs avec fine-tuning thérapeutique (Therabot) |
| Modèle d’IA | Rule-based : arbres décisionnels, correspondance de mots-clés | Génératif : LLM (GPT-4, LLaMA, Falcon) avec ou sans fine-tuning clinique |
| Fondement thérapeutique | Explicite : TCC, activation comportementale, mindfulness, ACT (documenté dans les publications) | Absent (ChatGPT) ou intégré par fine-tuning sur dialogues thérapeutiques (Therabot) |
| Prévisibilité des réponses | Élevée : réponses déterminées par l’arbre décisionnel | Faible : chaque réponse est générée dynamiquement, potentiel d’hallucinations |
| Positionnement clinique | Complément explicite au suivi humain, limites posées dès le premier échange | Variable : non positionné (ChatGPT) ou positionné comme intervention autonome évaluée (Therabot) |
| Gestion des crises | Intégrée : détection de mots-clés, réorientation d’urgence, numéros de crise (Owlie, Woebot) | Absente (ChatGPT) ou présente (Therabot : détection + orientation vers 911/lignes de crise) |
| Cadre éthique | Explicite dès la conception : Code de déontologie, convention d’Helsinki, consentement éclairé | Absent ou post-hoc (ChatGPT) ; intégré au protocole de recherche (Therabot) |
| Niveau de preuve | Études préliminaires (Owlie), RCT petit échantillon (Woebot, Tess) | Pas de données cliniques (ChatGPT) ; premier RCT national N=210 (Therabot) |
| Co-conception avec patients | Oui : communautés de patients consultées (Owlie), pair aidant co-créateur | Non (ChatGPT) ; dialogues rédigés par professionnels sans co-conception patient (Therabot) |
| Risques identifiés | Rigidité des réponses, difficulté avec l’ambiguïté et l’ironie, données préliminaires | Hallucinations, sycophancy, dépendance émotionnelle, absence de cadre déontologique (ChatGPT) |
Ce tableau met en évidence une différence fondamentale : les chatbots cliniques construisent leur crédibilité par la transparence de leur logique thérapeutique et de leur cadre éthique, tandis que les chatbots génératifs la construisent — quand ils le font — par la mesure de leurs effets dans des essais cliniques. Ces deux approches ne sont pas incompatibles et pourraient, à terme, converger : un chatbot génératif conçu avec le cadre éthique d’un chatbot clinique et évalué par un essai contrôlé représenterait une synthèse des deux modèles.
Implications pour le clinicien en psychotraumatologie
À ce jour, aucun chatbot — clinique ou génératif — n’a été spécifiquement conçu pour ou évalué dans le cadre de la thérapie EMDR. Cette section n’extrapole donc pas de recommandation clinique, mais identifie les points de vigilance issus de la comparaison précédente.
Interroger l’usage des patients
La probabilité qu’un patient en suivi EMDR utilise ou ait utilisé un chatbot génératif (ChatGPT, Character.AI) entre les séances est désormais non négligeable. La distinction entre chatbot clinique et chatbot génératif offre au thérapeute un cadre pour évaluer cet usage : l’outil suit-il un protocole thérapeutique identifiable ? Intègre-t-il une gestion des crises ? A-t-il été évalué cliniquement ? Ce questionnement n’implique pas de jugement sur le patient, mais permet d’identifier les risques éventuels (dépendance émotionnelle, renforcement de croyances dysfonctionnelles par sycophancy).
Distinguer complément et substitution
Les chatbots cliniques comme Owlie se positionnent explicitement comme compléments au suivi humain, avec un cadre qui pose les limites dès le premier échange. Ce positionnement est cohérent avec la logique EMDR, où le protocole thérapeutique reste sous la responsabilité du clinicien. Les chatbots génératifs utilisés spontanément, en revanche, n’ont pas ce cadre et peuvent être perçus par le patient comme une alternative au suivi — un risque cliniquement documenté.
Considérer le cadre éthique comme prérequis
L’approche documentée par Falala-Séchet et al. (2020) — transparence sur les limites de l’outil, avatar non humain pour éviter les projections, gestion des crises intégrée, consentement éclairé, conformité au Code de déontologie — constitue un ensemble de principes pertinents pour tout projet d’intégration d’IA en psychotraumatologie. Ces principes ne sont pas spécifiques à l’EMDR mais leur absence dans les chatbots génératifs non cliniques est un signal d’alerte.
Reconnaître l’apport de la co-conception
Un aspect distinctif du projet Owlie est l’implication d’un pair aidant comme co-créateur et la consultation de communautés de patients. Cette démarche de co-conception, documentée dans la publication, est en cohérence avec les recommandations actuelles de l’OMS sur la participation des usagers dans le développement des outils de santé numérique.
Limites de cet article
Cet article est descriptif et comparatif, il ne constitue pas une revue systématique. Les données cliniques sur Owlie restent préliminaires — les deux études mentionnées n’atteignent pas le stade d’un essai contrôlé randomisé à grande échelle. La comparaison directe entre chatbots cliniques et génératifs est complexe du fait de contextes, populations et mesures de résultats différents. Therabot, bien que conçu avec une rigueur méthodologique notable, présente des limites de design (liste d’attente comme comparateur, durée brève). Enfin, le champ évolue très rapidement : de nouveaux outils et de nouvelles données cliniques sont publiés régulièrement.
Conclusions
Deux logiques de conception de chatbots en santé mentale coexistent aujourd’hui. La première, illustrée par Owlie, Woebot et Tess, repose sur une logique thérapeutique explicite, un cadre éthique posé dès la conception, et des données préliminaires publiées. La seconde, portée par l’IA générative, offre une flexibilité conversationnelle sans précédent mais soulève des questions de sécurité, de cadre déontologique et de preuve clinique — à l’exception notable de Therabot, qui amorce une convergence entre les deux modèles.
Pour le clinicien en psychotraumatologie, cette distinction est opérationnelle : elle permet d’évaluer les outils que les patients utilisent entre les séances et d’anticiper les enjeux éthiques de toute intégration future de l’IA dans la pratique EMDR. Les principes de conception documentés par Falala-Séchet et al. (2020) — transparence, co-conception avec les usagers, cadre éthique explicite, positionnement comme complément au suivi humain — restent des repères pertinents dans un paysage technologique en mutation rapide.
Aller plus loin
L’intelligence artificielle en santé mentale est un champ en transformation constante : de nouvelles études, réglementations et technologies émergent chaque mois. Cet article constitue un point de repère solide à la date de sa publication, mais la meilleure protection pour vos patients reste votre engagement dans une veille scientifique et une formation continue.
Références citées dans l’article
1. Aimé, X. (2017). Intelligence artificielle et psychiatrie : Noces d’or entre Eliza et Parry. L’Information Psychiatrique, 93, 51-56.
2. Anderson, K., Burford, O., & Emmerton, L. (2016). Mobile health apps to facilitate self-care: A qualitative study of user experiences. PLoS One, 11(5), 1-22.
3. Bickmore, T., Gruber, A., & Picard, R. (2005). Establishing the computer-patient working alliance in automated health behavior change interventions. Patient Education and Counseling, 59(1), 21-30.
4. Brandtzaeg, P. B., & Følstad, A. (2018). Chatbots: changing user needs and motivations. Interactions, 25(5), 38-43.
5. D’Alfonso, S., Santesteban-Echarri, O., Rice, S., et al. (2017). Artificial Intelligence-Assisted Online Social Therapy for Youth Mental Health. Frontiers in Psychology, 8, 796.
6. Donkin, L., Hickie, I. B., Christensen, H., et al. (2013). Rethinking the dose-response relationship between usage and outcome in an online intervention for depression: Randomized controlled trial. Journal of Medical Internet Research, 15(10), e231.
7. Fadhil, A., & Gabrielli, S. (2017). Addressing Challenges in Promoting Healthy Lifestyles: The AI-Chatbot Approach. PervasiveHealth, 261-265.
8. Falala-Séchet, C. (2018). Paul, intelligence artificielle conversationnelle spécialisée dans le suivi des patients avec dépression. Poster, WACAI, Porquerolles.
9. Falala-Séchet, C., Antoine, L., & Thiriez, I. (2020). Owlie, un chatbot de soutien psychologique : pourquoi, pour qui ? L’Information Psychiatrique, 96(8), 659-666. https://doi.org/10.1684/ipe.2020.2168
10. Falala-Séchet, C., Antoine, L., Thiriez, I., & Bungener, C. (2019). Owlie: A Chatbot that provides Emotional Support for Coping with Psychological Difficulties. Intelligent Virtual Agents (IVA), CNRS, Paris.
11. Fitzpatrick, K. K., Darcy, A., & Vierhile, M. (2017). Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot): A Randomized Controlled Trial. JMIR Mental Health, 4(2), e19.
12. Fulmer, R., Joerin, A., Gentile, B., Lakerink, L., & Rauws, M. (2018). Using Psychological Artificial Intelligence (Tess) to Relieve Symptoms of Depression and Anxiety: Randomized Controlled Trial. JMIR Mental Health, 5(4), e64.
13. Heinz, M. V., Mackin, D. M., Trudeau, B. M., et al. (2025). A Generative AI-Based Chatbot for Mental Health Treatment: Results of a National Randomized Clinical Trial. NEJM AI, 2(4).
14. Iakimova, G., Dimitrova, S., & Burté, T. (2017). Peut-on faire une TCC sans thérapeute ? Composantes actives des TCC informatisées pour la dépression. L’Encéphale, 43, 582-593.
15. Weizenbaum, J. (1966). ELIZA, a computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36-45.
Aller plus loin
Formation(s) : L’usage des intelligences artificielles par les patients : enjeux cliniques, éthiques et thérapeutiques



