
IA générative en santé mentale : le premier essai randomisé et ses implications pour l’EMDR
Mis à jour le 21 février 2026
En mars 2025, une équipe de Dartmouth College a publié dans le NEJM AI le premier essai contrôlé randomisé (ECR) d’un chatbot fondé sur l’IA générative pour le traitement de troubles de santé mentale. Cet essai, portant sur 210 adultes, montre des tailles d’effet modérées à larges sur la dépression, l’anxiété et les troubles alimentaires — comparables à celles des psychothérapies de première ligne. Cet article analyse en profondeur cet essai, ses forces, ses limites méthodologiques, et les implications concrètes pour le clinicien EMDR.
Article de synthèse à destination des professionnels de santé — Psychologues, psychiatres, praticiens EMDR
Avertissement. L’intelligence artificielle en santé mentale est un champ en transformation constante : de nouvelles études, réglementations et technologies émergent chaque mois. Cet article constitue un point de repère solide à la date de sa publication, mais la meilleure protection pour vos patients reste votre engagement dans une veille scientifique et une formation continue.
Pourquoi cet essai est un tournant ?
Depuis 2017, plusieurs chatbots en santé mentale ont fait l’objet d’essais contrôlés randomisés : Woebot pour la dépression des jeunes adultes (Fitzpatrick et al., 2017), Tess pour l’anxiété et la dépression (Fulmer et al., 2018), Wysa pour le bien-être numérique (Inkster et al., 2018). Li et al. (2023), dans leur méta-analyse systématique, montrent que ces agents conversationnels peuvent réduire les symptômes de dépression et de détresse, tout en soulignant des tailles d’effet modestes et une qualité méthodologique variable.
Cependant, tous ces chatbots relèvent de la « deuxième génération » : fondés sur des arbres décisionnels et des techniques de traitement du langage naturel, ils offrent des réponses préprogrammées dans un cadre structuré, généralement la thérapie cognitivo-comportementale (TCC). Aucun n’avait, avant 2025, été fondé sur l’IA générative — c’est-à-dire capable de produire des réponses libres, personnalisées et ouvertes, en temps réel.
En mars 2025, Heinz et al. ont publié dans le NEJM AI le premier essai contrôlé randomisé d’un chatbot fondé sur l’IA générative pour le traitement de troubles de santé mentale. Cet essai marque un tournant dans la littérature, à la fois par son design méthodologique, par la stature de la revue qui l’a publié, et par les questions qu’il ouvre pour toutes les formes de psychothérapie — y compris l’EMDR.
Therabot : un chatbot d’IA générative conçu pour la psychothérapie
Genèse et développement
Therabot a été développé au sein du laboratoire AI and Mental Health de Dartmouth College, sous la direction de Nicholas C. Jacobson, avec un développement amorcé en 2019. Le processus a inclus une consultation continue avec des psychologues et des psychiatres affiliés à Dartmouth et à Dartmouth Health. Il s’agit d’une application de chat multithread (texte), disponible sur iOS et Android, offrant un accès 24h/24, 7j/7.
Architecture technique
Therabot repose sur une architecture de modèles de langage à grande échelle (LLM), combinant les modèles Falcon-7B et LLaMA-2-70B. L’équipe a appliqué une méthode d’adaptation fine-tunée par quantification (QLoRA), permettant d’optimiser les réponses du modèle à partir d’un corpus d’entraînement spécifique. Ce corpus a été rédigé par des professionnels de santé mentale : il s’agit de dialogues thérapeute-patient fondés sur les meilleures pratiques actuelles de la TCC de troisième vague.
C’est là un point clé : à la différence des chatbots de deuxième génération qui suivent des scripts prédéfinis, Therabot génère des réponses ouvertes et personnalisées en fonction de ce que l’utilisateur écrit. Il peut ainsi s’adapter au contenu émotionnel exprimé, proposer des exercices contextualisés, et maintenir un dialogue fluide qui se rapproche d’un échange thérapeutique naturel.
Dispositif de sécurité
Un point fondamental pour le clinicien : Therabot intègre un système de détection de contenu à haut risque. Lorsque le système détecte des éléments évoquant une idéation suicidaire ou un danger immédiat, il interrompt le dialogue thérapeutique et oriente l’utilisateur vers des ressources de crise (numéros d’urgence, lignes de prévention du suicide). Il ne tente pas de gérer la crise de manière autonome.
L’essai Heinz et al. (2025) : méthode détaillée
Tableau 1. Fiche synoptique de l’essai Heinz et al. (2025)
| Caractéristique | Détail |
| Revue | NEJM AI, vol. 2, n°4, publié le 27 mars 2025 |
| Design | Essai contrôlé randomisé national, deux bras, non aveugle |
| Population | 210 adultes (≥18 ans), âge moyen 33,9 ans (ET 11,0), 59,5 % femmes, 53,3 % blancs non hispaniques |
| Critères d’inclusion | Symptômes cliniquement significatifs de dépression majeure (TDM, n=142), trouble anxieux généralisé (TAG, n=116), ou risque clinique élevé de trouble du comportement alimentaire (TCA, n=89). Stratification par diagnostic |
| Recrutement | Campagne publicitaire Meta (Facebook/Instagram), récrutement national (États-Unis) |
| Intervention | Accès illimité à Therabot (chatbot IA générative, TCC 3e vague) pendant 4 semaines, via application mobile (n=106) |
| Contrôle | Liste d’attente sans accès au chatbot pendant la période d’étude (n=104) |
| Mesures principales | PHQ-9 (dépression), GAD-7 (anxiété), questionnaires TCA |
| Suivi | Semaine 4 (fin d’intervention) et semaine 8 (4 semaines post-intervention) |
| Tailles d’effet | Modérées à larges sur dépression, anxiété et symptômes de TCA, comparables aux psychothérapies de première ligne |
| Alliance thérapeutique | Évaluée par les participants comme comparable à celle d’un thérapeute humain |
| Architecture IA | Falcon-7B + LLaMA-2-70B, fine-tuning QLoRA, déploiement AWS SageMaker |
Résultats principaux
Les participants ayant utilisé Therabot ont présenté une réduction cliniquement significative de leurs symptômes de dépression, d’anxiété et de troubles alimentaires, tant à la semaine 4 qu’à la semaine 8. Les tailles d’effet sont qualifiées de modérées à larges par les auteurs, et comparables à celles habituellement observées avec les psychothérapies de première ligne. C’est un résultat sans précédent pour un chatbot d’IA générative.
Alliance thérapeutique avec un agent IA
Un résultat particulièrement notable concerne l’alliance thérapeutique. Les participants ont évalué leur alliance avec Therabot à un niveau comparable à celui rapporté dans les études sur les psychothérapies humaines. Jacobson note que les utilisateurs « traitaient presque le logiciel comme un ami » et semblaient former de véritables relations avec Therabot, possiblement facilitées par l’absence de jugement perçue. Ce résultat rejoint les travaux fondateurs de Bickmore et al. (2005) sur l’alliance patient-machine, tout en les prolongeant dans le contexte de l’IA générative.
Engagement et rétention
L’un des problèmes majeurs des thérapeutiques numériques est l’attrition : les utilisateurs cessent rapidement de les utiliser. Heinz et al. rapportent un engagement soutenu tout au long des quatre semaines, attribué en partie à la nature générative des échanges : Therabot n’est pas limité à un bureau et accompagne l’utilisateur partout, à tout moment, pour faire face aux difficultés quotidiennes en temps réel. Cette disponibilité permanente constitue un avantage structurel par rapport aux psychothérapies en cabinet.
Forces méthodologiques de l’essai
Plusieurs éléments confèrent à cet essai une place singulière dans la littérature.
Premier ECR d’un chatbot génératif
Les essais précédents (Woebot, Tess, Wysa) portaient sur des chatbots à arbres décisionnels. Therabot est le premier système génératif à avoir fait l’objet d’un ECR. Cela marque une rupture technologique et méthodologique.
Publication dans le NEJM AI
Le New England Journal of Medicine est l’une des revues médicales les plus exigeantes au monde. La publication dans sa déclinaison IA confère à cet essai une visibilité et une crédibilité institutionnelle qui dépassent le cercle de la recherche en santé numérique. The Lancet y a consacré un commentaire éditorial en juin 2025, qualifiant l’essai de point de repère pour l’évaluation des chatbots en santé mentale.
Échantillon de taille significative
Avec 210 participants, l’essai dépasse largement les études pilotes habituelles dans le champ (Fitzpatrick et al., 2017 : 70 participants ; Fulmer et al., 2018 : 74 participants). Il reste toutefois modeste par rapport aux standards des ECR pharmaceutiques.
Randomisation et stratification
Les participants ont été stratifiés par diagnostic avant la randomisation, ce qui renforce la validité interne de l’essai en équilibrant les groupes sur les variables pronostiques principales.
Transparence technologique
Les auteurs décrivent précisément l’architecture du système (modèles utilisés, méthode de fine-tuning, déploiement), ce qui est rare dans la littérature sur les chatbots en santé mentale, où de nombreuses plateformes commerciales fonctionnent comme des boîtes noires.
Limites et critiques : une lecture pour cliniciens
Malgré ses forces, l’essai présente plusieurs limites que le clinicien doit connaître pour situer les résultats à leur juste valeur.
Le comparateur : liste d’attente, pas thérapie active
C’est la critique la plus substantielle. Le groupe contrôle était une liste d’attente sans aucune intervention. Un éditorial publié dans le NEJM AI souligne que comparer Therabot à un groupe de contrôle actif équivalent en attention (forums, groupes de soutien en ligne) aurait renforcé la crédibilité de l’essai, et qu’une comparaison avec quatre semaines de thérapie humaine aurait été idéale. En l’absence de comparateur actif, il est difficile de distinguer l’effet spécifique de Therabot d’effets non spécifiques (attention, engagement, passage du temps, effet placebo numérique).
Ce que cela signifie pour le clinicien. On ne peut pas conclure de cet essai que Therabot est aussi efficace qu’une psychothérapie humaine. On peut conclure qu’il est significativement supérieur à l’absence d’intervention — ce qui est différent.
Durée de suivi limitée
L’intervention dure 4 semaines, avec un suivi post-intervention de 4 semaines supplémentaires (semaine 8). C’est une période courte. Pour le clinicien EMDR habitué à des traitements de plusieurs mois, la question de la durabilité des effets à 6, 12 ou 24 mois reste entièrement ouverte. Les auteurs eux-mêmes reconnaissent cette limite et appellent à des études plus longues.
Biais de recrutement
Les participants ont été recrutés par des publicités sur Facebook et Instagram (Meta Ads). Cette méthode favorise des participants jeunes, connectés numériquement, et motivés par une compensation financière. La population de l’essai (âge moyen 34 ans, 59,5 % femmes, 53,3 % blancs non hispaniques) ne reflète pas la diversité des patients rencontrés en pratique clinique.
Absence de populations à haut risque
L’essai exclut de facto les populations les plus vulnérables : patients suicidaires, patients psychotiques, personnes âgées, mineurs, réfugiés. Or, ce sont précisément ces patients que le clinicien EMDR rencontre quotidiennement dans le cadre du traitement du traumatisme. Parchmann et al. (2024) montrent que l’intégration de l’IA auprès de populations vulnérables soulève des enjeux spécifiques de consentement, de cognition et d’isolement social.
Le risque inhérent à l’IA générative
Heinz lui-même formule un avertissement que tout clinicien doit retenir : la caractéristique qui rend l’IA générative si efficace est aussi celle qui confère son risque — les patients peuvent tout lui dire, et elle peut tout répondre. Moore et al. (2025) documentent 15 types de violations éthiques récurrentes dans 137 sessions entre des LLM et des utilisateurs en santé mentale, incluant stigmatisation et réponses inappropriées. Grabb et al. (2024) rapportent des cas de décompensation psychotique liée à l’utilisation intensive du chatbot Character.AI.
Situer l’essai dans le paysage de la recherche
Par rapport aux chatbots de deuxième génération
Le tableau ci-dessous situe l’essai Therabot par rapport aux principaux ECR de chatbots en santé mentale.
Tableau 2. Comparaison des principaux ECR de chatbots en santé mentale
| Chatbot | Année | N | Génération | Contrôle | Résultat principal |
| Woebot | 2017 | 70 | 2e (TCC) | Information | Réduction significative de la dépression après 2 semaines |
| Tess | 2018 | 74 | 2e (TCC) | Liste attente | Réduction significative anxiété/dépression |
| Wysa | 2018 | Variable | 2e (TCC + pleine conscience) | Mixte | Amélioration du bien-être, bonne acceptabilité |
| Therabot | 2025 | 210 | 3e (IA générative) | Liste attente | Tailles d’effet modérées à larges ; alliance comparable aux thérapeutes humains |
Par rapport aux outils EMDR numériques
Dans le champ spécifique de l’EMDR, les outils numériques intégrant l’IA suivent une logique très différente de Therabot. Russo et al. (2024) ont testé une plateforme d’EMDR à distance avec supervision active du thérapeute ; Fiani et al. (2023) ont développé un système de machine learning pour optimiser les paramètres de la stimulation bilatérale. Dans ces deux cas, l’IA est un outil d’assistance au clinicien, pas un agent thérapeutique autonome. Le contraste avec Therabot — système entièrement autonome, sans thérapeute dans la boucle — est majeur.
Suh et al. (2025) explorent une piste différente : l’optimisation des paramètres vidéo de stimulation EMDR par réseaux de neurones artificiels. Là encore, l’IA agit en amont du soin (calibrage technique), pas en interaction directe avec le patient.
La réception dans la communauté scientifique
L’essai a suscité un vif intérêt, y compris des réserves. Un éditorial du NEJM AI a salué l’initiative tout en soulignant la nécessité d’un comparateur actif. The Lancet a consacré un commentaire au sujet, notant que les capacités génératives des chatbots de nouvelle génération surpassent celles des chatbots à règles et des applications de santé mentale antérieures, tout en appelant à une évaluation rigoureuse des risques. Torous et Blease (2024), dans World Psychiatry, identifient les bénéfices potentiels de l’IA générative en santé mentale (accessibilité, personnalisation) et les défis actuels (hallucinations, absence de cadre clinique).
Implications pour le clinicien EMDR
Therabot ne traite pas le traumatisme, ne propose pas de stimulation bilatérale, et ne cible pas le TSPT. Alors, en quoi cet essai concerne-t-il le praticien EMDR ? Les implications sont de plusieurs ordres.
Ce que l’essai démontre : l’IA générative peut avoir un impact clinique réel
Avant cet essai, l’idée qu’un chatbot génératif puisse produire des effets cliniques comparables à ceux d’une psychothérapie relevait de la spéculation. Heinz et al. (2025) apportent une première preuve robuste que c’est possible — au moins pour la dépression, l’anxiété et les troubles alimentaires, sur une période courte, chez des adultes stables. Cela signifie que la question n’est plus de savoir si l’IA générative fonctionnera un jour en santé mentale, mais comment elle pourra être intégrée en toute sécurité.
Ce que l’essai ne démontre pas : la transposabilité au traitement du traumatisme
Le traitement du traumatisme par EMDR implique des mécanismes spécifiques que Therabot ne met pas en œuvre : stimulation bilatérale, retraitement des souvenirs traumatiques, désensibilisation systématique avec attention double. Par ailleurs, le retraitement traumatique comporte des risques inhérents (décompensation, dissociation, réactivation traumatique non contenue) qui sont qualitativement différents des risques d’une conversation TCC sur l’anxiété. Van Schie et Van Veen (2025) qualifient l’étude des effets indésirables de l’EMDR de domaine négligé mais urgent.
La transposabilité des résultats de Therabot au contexte EMDR est donc hypothétique. On ne peut pas conclure que ce qui fonctionne pour la dépression et l’anxiété via un chatbot génératif fonctionnera pour le retraitement du traumatisme.
La question de l’alliance thérapeutique
Le résultat sur l’alliance mérite une attention particulière. Hase et al. (2025) montrent empiriquement que la relation thérapeutique est un facteur clé de l’efficacité de l’EMDR. Si Therabot parvient à établir une forme d’alliance évaluée comme comparable à celle d’un thérapeute humain, cela soulève la question de la nature de cette alliance. Bickmore et al. (2005) avaient déjà montré qu’une alliance patient-machine peut exister. Cependant, Kirk et al. (2025) théorisent le besoin d’un alignement socio-affectif dans les relations humain-IA, soulignant que les systèmes actuels ne sont pas conçus pour répondre à cette exigence.
En EMDR, la relation thérapeutique n’est pas seulement un facteur facilitant : elle est le cadre de sécurité dans lequel le patient peut s’exposer au souvenir traumatique. La théorie polyvagale de Porges (2021) explique pourquoi le système nerveux nécessite des signaux de sécurité interpersonnels — voix, regard, présence physique — pour sortir de l’état défensif lié au traumatisme. Un chatbot, même génératif, ne peut fournir ces signaux.
Les patients sont déjà là
Lee et al. (2025) montrent que les patients reconnaissent le potentiel de l’IA pour la santé mentale tout en préférant qu’un professionnel humain reste dans la boucle décisionnelle. Siddals et al. (2024) rapportent des témoignages d’utilisateurs de chatbots génératifs en santé mentale, montrant des expériences très hétérogènes. Pour le clinicien EMDR, cela signifie que certains patients arriveront en séance après avoir utilisé Therabot ou des systèmes similaires. Connaître ces outils, leurs résultats et leurs limites permet d’intégrer cette expérience préalable dans l’anamnèse et le projet thérapeutique.
Le risque de la paresse métacognitive
Fan et al. (2024) alertent sur la paresse métacognitive induite par l’IA générative : la tentation de déléguer la réflexion à un système automatisé. Tankelevitch et al. (2024) analysent les exigences métacognitives de l’IA et leurs implications pour les professionnels. Si les résultats de Therabot sont confirmés et généralisés, la tentation pourrait exister de déléguer une partie du suivi thérapeutique à un chatbot. L’APA (2024-2025) rappelle que le praticien reste responsable de l’utilisation des outils d’IA, y compris lorsque les décisions sont partiellement automatisées.
Perspectives de recherche
L’essai Therabot ouvre plusieurs pistes de recherche directement pertinentes pour le champ EMDR.
Comparer un chatbot génératif à une thérapie humaine
C’est la prochaine étape logique. Tant que les ECR ne compareront les chatbots qu’à des listes d’attente, les cliniciens ne pourront pas se prononcer sur leur valeur relative. Cela est particulièrement vrai pour l’EMDR, où la thérapie en face-à-face reste l’étalon de référence.
Tester l’IA générative en adjoint à l’EMDR
Plutôt que de remplacer le thérapeute, l’IA générative pourrait être utilisée entre les séances d’EMDR : exercices de stabilisation, suivi de l’état émotionnel, renforcement des acquis. PTSDialogue (Han et al., 2021) explore déjà cette piste pour le TSPT, mais reste un prototype. Heinz et Jacobson eux-mêmes suggèrent un modèle « adjoint à la psychothérapie en personne ».
Évaluer les risques spécifiques au traumatisme
Que se passe-t-il lorsqu’un utilisateur d’un chatbot génératif évoque un souvenir traumatique ? L’IA peut-elle détecter une dissociation en cours ? Peut-elle stabiliser un patient en détresse ? Ces questions sont sans réponse. Van Schie et Van Veen (2025) appellent à une étude systématique des effets indésirables.
Étudier les populations vulnérables
L’essai Therabot a été conduit auprès d’adultes stables, jeunes, connectés. Des essais incluant des populations âgées, des réfugiés, des patients suicidaires ou des mineurs sont nécessaires pour évaluer la sécurité et l’efficacité dans des contextes cliniques réalistes.
Évaluer l’impact à long terme sur l’alliance thérapeutique humaine
Yuan et al. (2024) montrent que les interactions émotionnelles répétées avec des chatbots peuvent affecter la socialisation humaine. L’utilisation prolongée d’un chatbot thérapeutique modifie-t-elle la capacité du patient à former une alliance thérapeutique avec un humain ? Cette question est essentielle pour le clinicien EMDR.
Limites de cet article
Cet article est fondé sur les informations publiquement disponibles concernant l’essai Heinz et al. (2025), complétées par la littérature connexe sur les chatbots en santé mentale et sur l’EMDR numérique. L’accès au texte intégral de l’article original peut révéler des nuances méthodologiques non reportées dans les synthèses et commentaires disponibles. Par ailleurs, les implications pour l’EMDR développées ici sont des extrapolations argumentées, non des conclusions empiriques directes : aucune étude ne teste un chatbot génératif dans le contexte spécifique du traitement EMDR.
Conclusion
L’essai Heinz et al. (2025), publié dans le NEJM AI, est un événement dans le champ de la santé mentale numérique. Il apporte la première preuve robuste qu’un chatbot fondé sur l’IA générative peut produire des effets cliniques significatifs sur la dépression, l’anxiété et les troubles alimentaires, avec des tailles d’effet comparables aux psychothérapies de première ligne et une alliance thérapeutique évaluée comme comparable à celle d’un thérapeute humain.
Pour le clinicien EMDR, cet essai n’est ni une menace ni une promesse directe, mais un signal fort. Il confirme que l’IA générative a un potentiel clinique réel. Il montre aussi que les limites sont considérables : comparateur faible, populations à faible risque, suivi court, risques inhérents à la génération libre de texte, aucune transposabilité démontrée au traitement du traumatisme.
La posture la plus adéquate pour le praticien formé à l’EMDR est celle de la vigilance informée : connaître ces résultats, en comprendre la portée et les limites, anticiper les évolutions à venir, et maintenir une posture clinique où le jugement humain, la relation thérapeutique et la sécurité du patient restent au centre. Comme le résument les auteurs eux-mêmes : aucun agent d’IA générative n’est prêt à fonctionner de manière pleinement autonome en santé mentale.
Se former à ces enjeux, c’est se donner les moyens d’accompagner ses patients avec discernement dans un paysage en mutation rapide.
En savoir plus
L’intelligence artificielle en santé mentale est un champ en transformation constante : de nouvelles études, réglementations et technologies émergent chaque mois. Cet article constitue un point de repère solide à la date de sa publication, mais la meilleure protection pour vos patients reste votre engagement dans une veille scientifique et une formation continue.
Références citées dans l’article
- American Psychological Association (2024–2025). Ethical guidance on artificial intelligence in professional psychological practice. https://www.apa.org/topics/artificial-intelligence-machine-learning/ethical-guidance-ai-professional-practice
- Bickmore, T., Gruber, A., & Picard, R. (2005). Establishing the computer–patient working alliance in automated health behavior change interventions. Patient Education and Counseling, 59(1), 21–30. https://doi.org/10.1016/j.pec.2004.09.008
- Fan, Y., et al. (2024). Beware of metacognitive laziness: Effects of generative artificial intelligence on learning motivation, processes, and performance.
- Fiani, F., Russo, S., & Napoli, C. (2023). An Advanced Solution Based on Machine Learning for Remote EMDR Therapy. Technologies.
- Fitzpatrick, K. K., Darcy, A., & Vierhile, M. (2017). Delivering cognitive behavior therapy to young adults with symptoms of depression and anxiety using a fully automated conversational agent (Woebot): A randomized controlled trial. JMIR Mental Health, 4(2), e19. https://doi.org/10.2196/mental.7785
- Fulmer, R., Joerin, A., Gentile, B., Lakerink, L., & Rauws, M. (2018). Using psychological artificial intelligence (Tess) to relieve symptoms of depression and anxiety: Randomized controlled trial. JMIR Mental Health, 5(4), e64. https://doi.org/10.2196/mental.9782
- Grabb, D., Lamparth, J., & Vasan, A. (2024). Character.AI and the Challenge of Chatbot Psychosis. arXiv preprint. https://arxiv.org/abs/2507.19218
- Han, H. J., Jaworski, B. K., & Owen, J. E. (2021). PTSDialogue: Designing a conversational agent to support individuals with post-traumatic stress disorder. In Proceedings of the 2021 CHI Conference Extended Abstracts on Human Factors in Computing Systems (pp. 198–203). https://doi.org/10.1145/3460418.3479332
- Hase, M., Brisch, K., Solomon, R., & Hase, A. (2025). The therapeutic relationship in EMDR therapy—A survey. Frontiers in Psychology, 16. https://doi.org/10.3389/fpsyg.2025.1519665
- Heinz, M. V., Mackin, D. M., Trudeau, B. M., Bhattacharya, S., Wang, Y., Banta, H. A., Jewett, A. D., Salzhauer, A. J., Griffin, T. Z., & Jacobson, N. C. (2025). Randomized Trial of a Generative AI Chatbot for Mental Health Treatment. NEJM AI, 2(4). https://doi.org/10.1056/AIoa2400802
- Hipgrave, L., Goldie, J., Dennis, S., & Coleman, A. (2025). Balancing risks and benefits: Clinicians’ perspectives on the use of generative AI chatbots in mental healthcare. Frontiers in Digital Health, 7. https://doi.org/10.3389/fdgth.2025.1606291
- Inkster, B., Sarda, S., & Subramanian, V. (2018). An empathy-driven, conversational artificial intelligence agent (Wysa) for digital mental well-being: Real-world data evaluation mixed-methods study. JMIR mHealth and uHealth, 6(11), e12106. https://doi.org/10.2196/12106
- Kirk, H. R., Gabriel, I., Summerfield, C., Vidgen, B., & Hale, S. A. (2025). Why human–AI relationships need socioaffective alignment. Humanities and Social Sciences Communications, 12(1). https://doi.org/10.1057/s41599-025-04532-5
- Lee, H. S., Wright, C., Ferranto, J., et al. (2025). Artificial intelligence conversational agents in mental health: Patients see potential, but prefer humans in the loop. Frontiers in Psychiatry, 15, Article 1505024. https://doi.org/10.3389/fpsyt.2024.1505024
- Li, H., Zhang, R., Lee, Y., Kraut, R., & Mohr, D. (2023). Systematic review and meta-analysis of AI-based conversational agents for promoting mental health and well-being. NPJ Digital Medicine, 6. https://doi.org/10.1038/s41746-023-00979-5
- Moore, J., Grabb, D., Agnew, W., et al. (2025). Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers. Proceedings of the ACM Conference on Fairness, Accountability, and Transparency. https://doi.org/10.1145/3715275.3732039
- Parchmann, N., Hansen, D., Orzechowski, M., & Steger, F. (2024). An ethical assessment of professional opinions on concerns, chances, and limitations of the implementation of an AI-based technology into geriatric patient treatment and continuity of care. GeroScience, 46, 6269–6282. https://doi.org/10.1007/s11357-024-01229-6
- Porges, S. W. (2021). Polyvagal Safety: Attachment, Communication, and Self-Regulation. W. W. Norton & Company.
- Russo, S., Fiani, F., & Napoli, C. (2024). Remote Eye Movement Desensitization and Reprocessing Treatment of Long-COVID- and Post-COVID-Related Traumatic Disorders. Brain Sciences, 14. https://doi.org/10.3390/brainsci14121212
- Siddals, S., Coxon, A., Torous, J., et al. (2024). “It just happened to be the perfect thing”: Real-life experiences of generative AI chatbots for mental health. Research Square. https://doi.org/10.21203/rs.3.rs-4612612/v1
- Suh, J., Chang, S., & Park, H. (2025). Optimization of Video Stimuli Parameters in EMDR Therapy Using Artificial Neural Networks for Enhanced Treatment Efficacy. Applied Sciences. https://doi.org/10.3390/app15020934
- Tankelevitch, L., et al. (2024). The metacognitive demands and opportunities of generative AI.
- Torous, J., & Blease, C. (2024). Generative artificial intelligence in mental health care: Potential benefits and current challenges. World Psychiatry, 23(1), 1–2. https://doi.org/10.1002/wps.21148
- Van Schie, K., & Van Veen, S. (2025). Adverse effects of Eye Movement Desensitization and Reprocessing therapy: A neglected but urgent area of inquiry. Current Opinion in Psychology, 67, 102155. https://doi.org/10.1016/j.copsyc.2025.102155
- Wang, X., Zhou, Y., & Zhou, G. (2025). The application and ethical implication of generative AI in mental health: Systematic review. JMIR Mental Health, 12, e70610. https://doi.org/10.2196/70610
- Yuan, Z., Cheng, X., & Duan, Y. (2024). Impact of media dependence: How emotional interactions between users and chat robots affect human socialization? Frontiers in Psychology, 15, 1388860. https://doi.org/10.3389/fpsyg.2024.1388860
Aller plus loin
Formation(s) : L’usage des intelligences artificielles par les patients : enjeux cliniques, éthiques et thérapeutiques



