
Chatbots et agents conversationnels en santé mentale : Un panorama pour le clinicien EMDR
Mis à jour le 20 février 2026
Les agents conversationnels (chatbots) en santé mentale constituent un écosystème en expansion rapide, allant de systèmes fondés sur des arbres décisionnels (Woebot, Tess, Wysa) jusqu’aux chatbots d’IA générative. L’un d’entre eux (PTSDialogue) cible spécifiquement le TSPT. Cet article offre aux cliniciens EMDR un état des lieux des outils existants, de leurs preuves cliniques, de leurs limites et des risques documentés, afin d’éclairer leur posture professionnelle face à des patients qui utilisent ou envisagent d’utiliser ces technologies.
Avertissement. L’intelligence artificielle en santé mentale est un champ en transformation constante : de nouvelles études, réglementations et technologies émergent chaque mois. Cet article constitue un point de repère solide à la date de sa rédaction (février 2026), mais la meilleure protection pour vos patients reste votre engagement dans une veille scientifique et une formation continues.
Les chatbots et agents conversationnels en santé mentale ne sont plus un concept futuriste. Des millions de personnes dans le monde interagissent déjà avec des systèmes automatisés pour gérer leur anxiété, leur humeur dépressive ou leur détresse émotionnelle. Li et al. (2023), dans leur méta-analyse systématique portant sur les agents conversationnels fondés sur l’IA, montrent que ces outils peuvent réduire les symptômes de dépression et de détresse, tout en soulignant que l’expérience utilisateur dépend fortement de l’empathie perçue et de la qualité de communication — des domaines où l’IA reste en retrait par rapport aux thérapeutes humains.
Pour le clinicien EMDR, ce paysage est doublement pertinent. D’une part, certains patients arrivent en séance après avoir utilisé ces outils, avec des attentes, des habitudes ou parfois des expériences négatives qu’il est important de connaître. D’autre part, des outils numériques spécifiques à l’EMDR commencent à émerger, avec des implications cliniques et éthiques que chaque praticien doit pouvoir évaluer.
Cet article propose un panorama structuré des principaux chatbots et agents conversationnels utilisés en santé mentale, en distinguant les générations technologiques, en présentant les données cliniques disponibles, et en identifiant les risques documentés. Il s’adresse aux professionnels de santé formés ou en cours de formation à l’EMDR, dans une perspective d’information rigoureuse et de formation continue.
De quoi parle-t-on ? Définitions et générations technologiques
Vaidyam et al. (2019) proposent une cartographie du paysage psychiatrique des chatbots et agents conversationnels. Un chatbot en santé mentale est un logiciel capable de simuler une conversation avec un utilisateur, généralement par écrit (texte), parfois par voix, dans le but d’offrir un soutien psychologique, des exercices thérapeutiques ou une orientation vers des ressources professionnelles.
Première et deuxième génération : systèmes fondés sur des règles
Les chatbots dits de « première vague » (années 2000-2010) reposent sur des arbres décisionnels préprogrammés. L’agent virtuel Sim Sensei, développé par DeVault et al. (2013) à l’Université de Californie du Sud, est un exemple précurseur : il détecte des indicateurs verbaux de détresse psychologique dans un dialogue interactif avec un humain virtuel. La « deuxième vague » (années 2017-2023) intègre des techniques de traitement du langage naturel (NLP) et d’apprentissage automatique pour personnaliser les réponses, tout en maintenant un cadre thérapeutique structuré (généralement la thérapie cognitivo-comportementale, TCC). La majorité des chatbots cliniquement évalués (Woebot, Tess, Wysa, Youper) appartiennent à cette catégorie.
Troisième génération : IA générative
Depuis 2023, l’émergence des grands modèles de langage (LLM) comme GPT-4 a ouvert une nouvelle ère. Ces systèmes génèrent des réponses libres, sans arbre décisionnel prédéfini, ce qui les rend plus fluides et plus « humains » dans la conversation, mais aussi plus imprévisibles. Torous et Blease (2024) identifient les bénéfices potentiels (accessibilité, personnalisation) et les défis actuels (hallucinations, absence de cadre clinique, risques éthiques) de l’IA générative en santé mentale. Heinz et al. (2025) ont publié dans le NEJM AI le premier essai randomisé d’un chatbot génératif en santé mentale, marquant un tournant dans la recherche.
Panorama des principaux chatbots en santé mentale
Le tableau ci-dessous présente les chatbots les plus documentés dans la littérature scientifique. Cette liste n’est pas exhaustive : d’autres agents conversationnels existent ou sont en cours de développement, et n’ont pas été identifiés ou mentionnés dans le cadre de cette revue. Le paysage évolue très rapidement, avec de nouveaux outils apparaissant régulièrement.
Tableau 1. Principaux chatbots en santé mentale documentés dans la littérature (liste non exhaustive)
| Chatbot | Génération | Approche | Preuves cliniques | Référence clé |
| Woebot | 2e vague (NLP + TCC) | TCC automatisée pour jeunes adultes, dépression et anxiété | ECR : réduction significative des symptômes de dépression après 2 semaines | Fitzpatrick et al., 2017 |
| Tess | 2e vague (NLP + TCC/psychoéducation) | Soutien émotionnel et réduction de l’anxiété et de la dépression | ECR : réduction significative de l’anxiété et de la dépression vs. groupe contrôle | Fulmer et al., 2018 |
| Wysa | 2e vague (NLP + TCC + pleine conscience) | Bien-être numérique, empathie conversationnelle | Étude mixte : amélioration du bien-être, bonne acceptabilité | Inkster et al., 2018 |
| Youper | 2e vague (NLP + TCC) | Gestion de l’anxiété et de la dépression, suivi émotionnel | Étude longitudinale : acceptabilité et efficacité modérée sur anxiété et dépression | Mehta et al., 2021 |
| Replika | 2e/3e vague (NLP + génératif) | Compagnon conversationnel, soutien social | Analyse qualitative : soutien social perçu ; risque de dépendance émotionnelle | Ta et al., 2020 |
| Elomia | 2e vague (NLP) | Soutien psychologique général | Étude pilote : réduction de la détresse mentale | Romanovskyi et al., 2021 |
| Emohaa | 2e vague (NLP) | Soutien émotionnel, contexte chinois | Étude pilote : réduction de la détresse mentale en Chine | Sabour et al., 2023 |
| Owlie | 2e vague (NLP) | Soutien psychologique, francophone | Article descriptif : rationnel, population cible | Falala-Séchet et al., 2020 |
| SERMO | 2e vague (NLP) | Régulation émotionnelle | Test d’utilisabilité : concept validé | Denecke et al., 2020 |
| PTSDialogue | 2e vague (NLP, spécifique TSPT) | Agent conversationnel ciblant spécifiquement le TSPT | Prototype : design participatif, pas d’ECR | Han et al., 2021 |
| Chatbot IA générative (Heinz et al.) | 3e vague (LLM) | Traitement santé mentale général, IA générative | ECR publié dans NEJM AI : premier essai randomisé d’un chatbot génératif | Heinz et al., 2025 |
ECR = essai contrôlé randomisé ; NLP = traitement du langage naturel ; TCC = thérapie cognitivo-comportementale ; LLM = grand modèle de langage.
Que disent les données cliniques ?
Les chatbots de deuxième génération : des résultats encourageants mais limités
Woebot est le chatbot le plus étudié. Fitzpatrick et al. (2017) ont conduit un essai contrôlé randomisé auprès de jeunes adultes présentant des symptômes de dépression et d’anxiété, montrant une réduction significative des symptômes dépressifs après deux semaines d’utilisation. Tess (Fulmer et al., 2018) a également fait l’objet d’un ECR, avec une réduction significative de l’anxiété et de la dépression par rapport au groupe contrôle. Wysa (Inkster et al., 2018) a démontré une bonne acceptabilité et une amélioration du bien-être dans une étude mixte en conditions réelles.
Cependant, Li et al. (2023) soulignent dans leur méta-analyse que les tailles d’effet restent modestes et que la qualité méthodologique des études est variable. La plupart portent sur des échantillons de petite taille, sur des durées courtes, et comparent le chatbot à une liste d’attente ou à un groupe sans intervention — rarement à une thérapie en face-à-face. Les taux d’attrition sont souvent élevés, ce qui interroge sur l’engagement réel des utilisateurs dans la durée.
L’essai NEJM AI : un tournant pour l’IA générative
Heinz et al. (2025) ont publié dans le NEJM AI le premier essai contrôlé randomisé d’un chatbot fondé sur l’IA générative pour le traitement de troubles de santé mentale. Cet essai constitue la preuve la plus robuste à ce jour de l’efficacité potentielle d’un chatbot en santé mentale. Il est toutefois essentiel de noter que cette étude porte sur la santé mentale en général, et non spécifiquement sur le traitement du traumatisme ou sur l’EMDR. La transposabilité de ces résultats au contexte EMDR reste à démontrer.
Le cas spécifique du TSPT : PTSDialogue
PTSDialogue (Han et al., 2021) est, à notre connaissance, le seul agent conversationnel conçu spécifiquement pour le trouble de stress post-traumatique (TSPT). Développé via un processus de design participatif, il est conçu pour offrir un soutien entre les séances de psychothérapie. Il ne remplace pas le traitement mais vise à renforcer l’engagement thérapeutique. À ce stade, PTSDialogue reste un prototype : aucun essai contrôlé randomisé n’a été publié.
Lauderdale et Desai (2024) ont par ailleurs évalué la capacité de ChatGPT-4 à reconnaître les symptômes de TSPT et à proposer des traitements fondés sur les preuves chez des vétérans. Les résultats montrent une reconnaissance correcte des symptômes, mais l’absence de contextualisation clinique et de jugement relationnel reste un obstacle majeur à toute utilisation autonome.
Les outils spécifiques EMDR
Dans le champ strictement EMDR, plusieurs équipes ont développé des outils numériques intégrant l’IA, mais il ne s’agit pas de chatbots conversationnels à proprement parler. Goga et al. (2022) et Popovici et al. (2020) ont développé des systèmes « intelligents » d’EMDR utilisant la stimulation bilatérale vidéo, audio et tactile, réduisant la détresse liée au TSPT et à l’anxiété dans de petits échantillons pilotes. Russo et al. (2024) ont testé une plateforme distancielle d’EMDR assistée par IA pour les traumatismes liés au COVID long. Ces outils se distinguent des chatbots par le maintien d’une supervision thérapeutique active.
Risques documentés : ce que le clinicien doit savoir
La littérature récente, particulièrement en 2024-2025, documente des risques concrets qui dépassent les mises en garde théoriques.
Réponses inappropriées et stigmatisantes
Moore et al. (2025), dans une étude présentée à la conférence ACM sur l’équité et la transparence, ont analysé 137 sessions entre des grands modèles de langage et des utilisateurs simulant des situations de santé mentale. Ils ont identifié 15 types de violations éthiques récurrentes, incluant des réponses stigmatisantes, des conseils inappropriés et des défaillances dans la détection de situations de crise. Ces résultats conduisent les auteurs à conclure que les LLM ne peuvent pas remplacer de manière sûre les professionnels de santé mentale.
Psychose liée aux chatbots
Grabb et al. (2024) documentent des cas de décompensation psychotique liés à l’utilisation intensive du chatbot Character.AI. Ce phénomène, qualifié par les auteurs de « psychose chatbot », illustre les risques d’interactions émotionnellement intenses et répétées avec des systèmes d’IA sans garde-fous cliniques. Bien que ces cas soient rares et liés à un chatbot de divertissement (non médical), ils alertent sur les conséquences possibles lorsque des utilisateurs vulnérables investissent massivement une relation avec un agent artificiel.
Dépendance émotionnelle et impact sur la socialisation
Yuan et al. (2024) montrent que les interactions émotionnelles répétées avec des chatbots peuvent affecter la socialisation humaine, créant une forme de dépendance émotionnelle au détriment des relations interpersonnelles réelles. Ta et al. (2020), dans leur analyse qualitative des utilisateurs de Replika, documentent un soutien social perçu réel, mais également un risque d’attachement à un agent qui ne peut ni comprendre ni répondre de manière authentique à la complexité émotionnelle humaine. Kirk et al. (2025) théorisent le besoin d’un « alignement socio-affectif » dans les relations humain-IA, soulignant que les systèmes actuels ne répondent pas à cette exigence.
Évaluation du risque suicidaire par l’IA : un domaine sensible
Levkovich et Elyoseph (2023) ont comparé les évaluations du risque suicidaire réalisées par ChatGPT-3.5 et ChatGPT-4 à celles de cliniciens humains. Si ChatGPT-4 se rapproche des évaluations humaines, des divergences significatives persistent, en particulier dans les cas complexes. Ce résultat souligne que l’évaluation du risque suicidaire — compétence centrale du clinicien EMDR travaillant avec des patients traumatisés — ne peut être déléguée à un système automatisé.
Perspectives des cliniciens
Hipgrave et al. (2025) rapportent les perspectives de cliniciens sur les chatbots IA en santé mentale : s’ils reconnaissent un potentiel pour l’accessibilité, ils soulignent que la qualité relationnelle est irremplaçable et que les risques sont sous-estimés par les développeurs. Palanica et al. (2019) montrent que les médecins eux-mêmes expriment des réserves significatives sur la capacité des chatbots à comprendre le contexte clinique. Lee et al. (2025) confirment cette tendance : les patients voient le potentiel de l’IA mais préfèrent qu’un humain reste dans la boucle.
Pertinence pour le clinicien EMDR
Pourquoi un praticien EMDR devrait-il s’intéresser aux chatbots en santé mentale ?
Plusieurs raisons convergent.
Connaître l’expérience préalable des patients.
Siddals et al. (2024) rapportent des témoignages d’utilisateurs de chatbots génératifs pour la santé mentale, montrant des expériences très hétérogènes allant de la satisfaction à la déception. Un patient arrivant en EMDR après avoir utilisé un chatbot peut avoir développé des attentes spécifiques, une méfiance envers la technologie, ou au contraire une familiarité excessive avec des réponses automatisées. Explorer cette expérience fait partie de l’anamnèse.
Situer les outils numériques EMDR dans leur contexte.
Les plateformes d’EMDR numérique (Goga et al., 2022 ; Russo et al., 2024) partagent certaines caractéristiques techniques avec les chatbots (IA, collecte de données, interface numérique), mais s’en distinguent par le maintien d’une supervision clinique. Comprendre l’écosystème des chatbots permet au clinicien d’expliquer cette différence à ses patients et de justifier l’importance de la supervision.
Préserver la relation thérapeutique.
Hase et al. (2025) montrent empiriquement que la relation thérapeutique est un facteur clé de l’efficacité de l’EMDR. Bickmore et al. (2005) avaient déjà montré qu’une forme d’alliance patient-machine peut s’établir, mais elle reste qualitativement différente de l’alliance humaine. Pour le clinicien EMDR, connaître ces données permet de situer la valeur irremplaçable de la présence humaine dans le traitement du traumatisme.
Développer une posture métacognitive face à la technologie.
Fan et al. (2024) alertent sur la « paresse métacognitive » induite par l’IA générative : la tentation de déléguer la réflexion clinique à un outil. Pour le clinicien EMDR, maintenir un jugement clinique autonome — sur la stabilisation du patient, le timing de l’exposition, l’adaptation du protocole — est essentiel, et cette vigilance se cultive par la formation.
Limites de cet article
Plusieurs limites doivent être signalées au lecteur.
Premièrement, le panorama présenté ici est fondé sur les chatbots les plus documentés dans la littérature scientifique en langue anglaise et française. D’autres agents conversationnels existent, sont en cours de développement ou sont utilisés dans des contextes non académiques (applications commerciales, prototypes non publiés, outils développés en Asie, en Amérique latine ou en Afrique), et n’ont pas été identifiés ou mentionnés dans cet article. Le paysage est en évolution très rapide, et cette synthèse ne prétend pas à l’exhaustivité.
Deuxièmement, la majorité des études cliniques portent sur des symptômes anxieux ou dépressifs, et non sur le TSPT ou le traitement du traumatisme. La transposabilité des résultats au contexte EMDR reste largement hypothétique. Troisièmement, les études disponibles sont majoritairement de faible puissance statistique (petits échantillons, courte durée, absence fréquente de groupe contrôle actif).
Conclusion
Les chatbots et agents conversationnels en santé mentale constituent un écosystème technologique en expansion rapide, dont les cliniciens EMDR ne peuvent plus ignorer l’existence. Des outils comme Woebot, Tess ou Wysa ont démontré des effets modestes mais significatifs sur l’anxiété et la dépression. L’essai NEJM AI (Heinz et al., 2025) marque un tournant en apportant la première preuve robuste d’efficacité d’un chatbot génératif. PTSDialogue ouvre une piste spécifique au TSPT, encore au stade de prototype.
Cependant, les risques documentés sont substantiels : réponses stigmatisantes (Moore et al., 2025), cas de décompensation psychotique (Grabb et al., 2024), dépendance émotionnelle (Yuan et al., 2024), limites dans l’évaluation du risque suicidaire (Levkovich & Elyoseph, 2023). Les cliniciens eux-mêmes considèrent que la qualité relationnelle est irremplaçable et que les risques sont sous-estimés (Hipgrave et al., 2025).
Pour le praticien EMDR, ces connaissances ne sont pas accessoires. Elles permettent de comprendre l’expérience préalable des patients, de situer les outils numériques EMDR dans un écosystème plus large, de préserver la valeur irremplaçable de la relation thérapeutique, et de maintenir un jugement clinique autonome face à la tentation de la délégation technologique. Se former à ces enjeux, c’est se donner les moyens d’accompagner ses patients avec discernement dans un monde où l’IA est déjà présente.
En savoir plus
L’intelligence artificielle en santé mentale est un champ en transformation constante : de nouvelles études, réglementations et technologies émergent chaque mois. Cet article constitue un point de repère solide à la date de sa publication, mais la meilleure protection pour vos patients reste votre engagement dans une veille scientifique et une formation continue.
Références citées dans l’article
- Bickmore, T., Gruber, A., & Picard, R. (2005). Establishing the computer–patient working alliance in automated health behavior change interventions. Patient Education and Counseling, 59(1), 21–30. https://doi.org/10.1016/j.pec.2004.09.008
- Denecke, K., Vaaheesan, S., & Arulnathan, A. (2020). A mental health chatbot for regulating emotions (SERMO) – Concept and usability test. IEEE Transactions on Emerging Topics in Computing, 9(3), 1170–1182. https://doi.org/10.1109/TETC.2020.2974478
- DeVault, D., Georgila, K., Artstein, R., et al. (2013). Verbal indicators of psychological distress in interactive dialogue with a virtual human. Proceedings of the SIGDIAL 2013 Conference.
- Falala-Séchet, C., Antoine, L., & Thiriez, I. (2020). Owlie, un chatbot de soutien psychologique : pourquoi, pour qui ? L’Information Psychiatrique, 96(8), 659–666. https://doi.org/10.1684/ipe.2020.2168
- Fan, Y., et al. (2024). Beware of metacognitive laziness: Effects of generative artificial intelligence on learning motivation, processes, and performance.
- Fitzpatrick, K. K., Darcy, A., & Vierhile, M. (2017). Delivering cognitive behavior therapy to young adults with symptoms of depression and anxiety using a fully automated conversational agent (Woebot): A randomized controlled trial. JMIR Mental Health, 4(2), e19. https://doi.org/10.2196/mental.7785
- Fulmer, R., Joerin, A., Gentile, B., Lakerink, L., & Rauws, M. (2018). Using psychological artificial intelligence (Tess) to relieve symptoms of depression and anxiety: Randomized controlled trial. JMIR Mental Health, 5(4), e64. https://doi.org/10.2196/mental.9782
- Goga, N., Boiangiu, C., Vasilățeanu, A., et al. (2022). An Efficient System for Eye Movement Desensitization and Reprocessing (EMDR) Therapy: A Pilot Study. Healthcare, 10. https://doi.org/10.3390/healthcare10010133
- Grabb, D., Lamparth, J., & Vasan, A. (2024). Character.AI and the Challenge of Chatbot Psychosis. arXiv preprint. https://arxiv.org/abs/2507.19218
- Han, H. J., Jaworski, B. K., & Owen, J. E. (2021). PTSDialogue: Designing a conversational agent to support individuals with post-traumatic stress disorder. In Proceedings of the 2021 CHI Conference Extended Abstracts on Human Factors in Computing Systems (pp. 198–203). https://doi.org/10.1145/3460418.3479332
- Hase, M., Brisch, K., Solomon, R., & Hase, A. (2025). The therapeutic relationship in EMDR therapy—A survey. Frontiers in Psychology, 16. https://doi.org/10.3389/fpsyg.2025.1519665
- Heinz, M., Faust, K., et al. (2025). Randomized trial of a generative AI chatbot for mental health treatment. NEJM AI, 2(4). https://doi.org/10.1056/AIoa2400802
- Hipgrave, L., Goldie, J., Dennis, S., & Coleman, A. (2025). Balancing risks and benefits: Clinicians’ perspectives on the use of generative AI chatbots in mental healthcare. Frontiers in Digital Health, 7. https://doi.org/10.3389/fdgth.2025.1606291
- Inkster, B., Sarda, S., & Subramanian, V. (2018). An empathy-driven, conversational artificial intelligence agent (Wysa) for digital mental well-being: Real-world data evaluation mixed-methods study. JMIR mHealth and uHealth, 6(11), e12106. https://doi.org/10.2196/12106
- Kirk, H. R., Gabriel, I., Summerfield, C., Vidgen, B., & Hale, S. A. (2025). Why human–AI relationships need socioaffective alignment. Humanities and Social Sciences Communications, 12(1). https://doi.org/10.1057/s41599-025-04532-5
- Lauderdale, S., & Desai, H. (2024). Assessing an AI chatbot’s recognition of PTSD symptoms and evidence-based treatments for veterans: A comparative study with ChatGPT-4 and human participants. ResearchGate. https://doi.org/10.13140/RG.2.2.31025.19041
- Lee, H. S., Wright, C., Ferranto, J., et al. (2025). Artificial intelligence conversational agents in mental health: Patients see potential, but prefer humans in the loop. Frontiers in Psychiatry, 15, Article 1505024. https://doi.org/10.3389/fpsyt.2024.1505024
- Levkovich, I., & Elyoseph, Z. (2023). Suicide risk assessments through the eyes of ChatGPT-3.5 versus ChatGPT-4: Vignette study. JMIR Mental Health, 10, e51232. https://doi.org/10.2196/51232
- Li, H., Zhang, R., Lee, Y., Kraut, R., & Mohr, D. (2023). Systematic review and meta-analysis of AI-based conversational agents for promoting mental health and well-being. NPJ Digital Medicine, 6. https://doi.org/10.1038/s41746-023-00979-5
- Mehta, S., Wang, A., Park, C., McGrath, D. A., & Sengupta, S. (2021). Acceptability and effectiveness of artificial intelligence therapy for anxiety and depression (Youper): Longitudinal observational study. Journal of Medical Internet Research, 23(9), e26771. https://doi.org/10.2196/26771
- Moore, J., Grabb, D., Agnew, W., et al. (2025). Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers. Proceedings of the ACM Conference on Fairness, Accountability, and Transparency. https://doi.org/10.1145/3715275.3732039
- Palanica, A., Flaschner, P., Thommandram, A., Li, M., & Fossat, Y. (2019). Physicians’ perceptions of chatbots in health care: Cross-sectional web-based survey. Journal of Medical Internet Research, 21(4), e12887. https://doi.org/10.2196/12887
- Popovici, A., Gancea, I., Drăgoi, M., et al. (2020). An intelligent EMDR system for helping students with psychological problems. eLearning and Software for Education. https://doi.org/10.12753/2066-026x-20-111
- Romanovskyi, I., Tolmachova, H., & Zinchenko, Y. (2021). Elomia chatbot: The effectiveness of artificial intelligence in the fight for mental health. In Computational Linguistics and Intelligent Systems (COLINS) (pp. 1215–1224). CEUR Workshop Proceedings.
- Russo, S., Fiani, F., & Napoli, C. (2024). Remote Eye Movement Desensitization and Reprocessing Treatment of Long-COVID- and Post-COVID-Related Traumatic Disorders. Brain Sciences, 14. https://doi.org/10.3390/brainsci14121212
- Sabour, M., Zhang, Y., Zhang, C., et al. (2023). A chatbot for mental health support: Exploring the impact of Emohaa on reducing mental distress in China. Frontiers in Digital Health, 5, 1133987. https://doi.org/10.3389/fdgth.2023.1133987
- Siddals, S., Coxon, A., Torous, J., et al. (2024). “It just happened to be the perfect thing”: Real-life experiences of generative AI chatbots for mental health. Research Square. https://doi.org/10.21203/rs.3.rs-4612612/v1
- Ta, V., Nguyen, Q., Nguyen, A., Nguyen, T., & Pham, H. H. (2020). User experiences of social support from companion chatbots in everyday contexts: Thematic analysis. Journal of Medical Internet Research, 22(7), e16235. https://doi.org/10.2196/16235
- Torous, J., & Blease, C. (2024). Generative artificial intelligence in mental health care: Potential benefits and current challenges. World Psychiatry, 23(1), 1–2. https://doi.org/10.1002/wps.21148
- Vaidyam, A. N., Wisniewski, H., Halamka, J. D., Kashavan, M. S., & Torous, J. B. (2019). Chatbots and conversational agents in mental health: A review of the psychiatric landscape. Canadian Journal of Psychiatry, 64(7), 456–464. https://doi.org/10.1177/070674371982897
- Wang, X., Zhou, Y., & Zhou, G. (2025). The application and ethical implication of generative AI in mental health: Systematic review. JMIR Mental Health, 12, e70610. https://doi.org/10.2196/70610
- Yuan, Z., Cheng, X., & Duan, Y. (2024). Impact of media dependence: How emotional interactions between users and chat robots affect human socialization? Frontiers in Psychology, 15, 1388860. https://doi.org/10.3389/fpsyg.2024.1388860
Aller plus loin
Formation(s) : L’usage des intelligences artificielles par les patients : enjeux cliniques, éthiques et thérapeutiques



