EMDR, IA et populations vulnérables : Adapter le modèle au profil du patient

IA – EMDR, IA et populations vulnérables : Adapter le modèle au profil du patient

Mis à jour le 21 février 2026

L’intégration de l’IA dans la thérapie EMDR ne peut s’envisager de manière uniforme. Les populations vulnérables — réfugiés, patients suicidaires, personnes âgées, enfants et adolescents, patients présentant des comorbidités psychiatriques sévères — présentent des besoins spécifiques qui requèrent des adaptations cliniques, éthiques et technologiques. Cet article synthétise la littérature disponible sur chaque profil de patient et formule des recommandations pour une intégration différenciée des outils numériques en EMDR. 

Article de synthèse à destination des professionnels de santé — Psychologues, psychiatres, praticiens EMDR

Avertissement. L’intelligence artificielle en santé mentale est un champ en transformation constante : de nouvelles études, réglementations et technologies émergent chaque mois. Cet article constitue un point de repère solide à la date de sa publication, mais la meilleure protection pour vos patients reste votre engagement dans une veille scientifique et une formation continue. 

L’EMDR (Eye Movement Desensitization and Reprocessing) est une psychothérapie recommandée par l’OMS et les principales instances de santé pour le traitement du trouble de stress post-traumatique (TSPT). L’intégration progressive de l’intelligence artificielle dans ce champ — plateformes distancielles supervisées (Russo et al., 2024), optimisation des paramètres de stimulation par réseaux de neurones (Suh et al., 2025), applications auto-administrées (Waterman & Cooper, 2020) — soulève une question que la littérature traite encore de manière insuffisante : ces outils sont-ils adaptés à tous les patients ?

La question n’est pas abstraite. Les populations les plus susceptibles de bénéficier de l’EMDR — réfugiés ayant vécu des violences, patients suicidaires, personnes âgées isolées, enfants exposés à des traumatismes précoces — sont également les plus vulnérables aux risques des technologies numériques : difficultés de consentement, barrières linguistiques et culturelles, fragilité cognitive, sensibilité aux réponses inappropriées de l’IA (Moore et al., 2025). Comme le soulignent Fiske et al. (2018), les enjeux éthiques de l’IA en psychothérapie sont amplifiés dès lors que le patient présente des facteurs de vulnérabilité.

Cet article examine, population par population, les données scientifiques disponibles sur l’utilisation de l’EMDR numérique ou assisté par IA, les risques spécifiques identifiés, et les adaptations nécessaires pour une pratique éthiquement défendable. Il s’adresse aux cliniciens EMDR soucieux d’adapter leur intégration des outils numériques au profil de chaque patient.

Qu’entend-on par « populations vulnérables » ?  

Dans le contexte de l’EMDR assisté par IA, la notion de vulnérabilité dépasse le seul diagnostic psychiatrique. Elle englobe l’ensemble des facteurs susceptibles de compromettre la capacité du patient à interagir de manière sûre et éclairée avec un système technologique. Parchmann et al. (2024), dans leur évaluation éthique de l’IA en gériatrie, proposent une définition multidimensionnelle de la vulnérabilité intégrant des facteurs cognitifs, sensoriels, sociaux et culturels.

Pour les besoins de cet article, nous retenons cinq profils de vulnérabilité particulièrement pertinents dans le contexte EMDR : les populations réfugiées et migrantes, les patients présentant un risque suicidaire, les personnes âgées, les enfants et adolescents, et les patients souffrant de comorbidités psychiatriques sévères (dissociation, psychose, troubles cognitifs). Ces catégories ne sont ni exhaustives ni mutuellement exclusives : un patient réfugié peut également être suicidaire, mineur ou présenter des troubles dissociatifs.

Populations réfugiées et migrantes 

Un besoin clinique massif et un accès limité aux soins

Les populations réfugiées présentent une prévalence élevée de TSPT, souvent lié à des expériences de guerre, de torture, de violence sexuelle ou de déplacement forcé. L’accès aux soins psychothérapeutiques est considérablement limité par des barrières linguistiques, géographiques, financières et culturelles. C’est dans ce contexte que Waterman et Cooper (2020) ont évalué le potentiel des applications EMDR auto-administrées, identifiant explicitement les réfugiés comme une population cible potentielle.

Promesses et risques de l’EMDR auto-administré

L’argument en faveur de l’EMDR auto-administré pour les réfugiés est celui de l’accessibilité : une application sur smartphone pourrait atteindre des populations éloignées des centres de soins, sans nécessiter de thérapeute formé localement. Cependant, Waterman et Cooper (2020) concluent eux-mêmes que les données sont insuffisantes pour recommander cette approche, soulignant un taux d’attrition de 4 participants sur 15 dans leur étude et l’absence de groupe contrôle. Plus préoccupant encore, l’auto-administration du retraitement traumatique sans supervision clinique comporte des risques de décompensation qui, dans le contexte d’un réfugié isolé sans réseau de soutien, pourraient avoir des conséquences sévères.

Van Schie et Van Veen (2025) qualifient l’étude des effets indésirables de l’EMDR de domaine « négligé mais urgent ». Cette urgence est décuplée pour les populations réfugiées, où les traumatismes sont souvent multiples, complexes et récents, et où les ressources de stabilisation sont limitées.

Barrières linguistiques et culturelles

Les plateformes d’EMDR numérique et les chatbots en santé mentale sont majoritairement développés en anglais. Li et al. (2023) notent dans leur méta-analyse que la qualité de l’expérience utilisateur dépend fortement de l’empathie perçue et de la qualité de communication — deux dimensions compromises lorsque le patient ne maîtrise pas la langue de l’interface. Par ailleurs, Kang et Hong (2025) montrent, dans leur évaluation d’un chatbot de santé mentale auprès d’utilisateurs coréens, que les adaptations linguistiques et culturelles ne se réduisent pas à une traduction : elles impliquent des ajustements dans la formulation des questions, les références culturelles et les normes de communication émotionnelle.

Moore et al. (2025) documentent par ailleurs des réponses stigmatisantes de la part de grands modèles de langage, un risque potentiellement amplifié pour des patients issus de minorités culturelles dont les expériences sont sous-représentées dans les corpus d’entraînement des algorithmes.

Patients présentant un risque suicidaire  

L’essai pionnier de Burback et al. (2024)

Burback et al. (2024) ont conduit le seul essai contrôlé randomisé du corpus à cibler une population à haut risque : des adultes présentant des idéations suicidaires, traités par EMDR délivré par un thérapeute via une plateforme web. Cette étude est remarquable à double titre : elle démontre la faisabilité de l’EMDR distanciel pour une population habituellement exclue des protocoles numériques pour des raisons de sécurité, et elle maintient une supervision thérapeutique active tout au long du processus. Le modèle testé n’est pas autonome : c’est un outil au service du clinicien, pas un substitut.

L’évaluation du risque suicidaire par l’IA : une compétence non délégable

Levkovich et Elyoseph (2023) ont comparé les évaluations du risque suicidaire réalisées par ChatGPT-3.5 et ChatGPT-4 à celles de cliniciens humains, en utilisant des vignettes cliniques. Si ChatGPT-4 se rapproche des évaluations humaines pour les cas modérés, des divergences significatives persistent dans les cas complexes ou ambiguës. Heston (2023) a également évalué la sécurité des grands modèles de langage face à la dépression, montrant des réponses généralement adéquates mais avec des lacunes dans la détection de signaux subtils.

Ces résultats convergent vers une conclusion nette : l’évaluation du risque suicidaire est une compétence clinique qui ne peut être déléguée à un système d’IA. Pour le clinicien EMDR travaillant avec des patients traumatisés, cette vigilance est d’autant plus critique que le TSPT est un facteur de risque indépendant du suicide, et que le retraitement traumatique peut temporairement amplifier la détresse émotionnelle.

Le paradoxe de l’accessibilité

Maples et al. (2024) montrent qu’un chatbot fondé sur GPT-3 peut contribuer à atténuer la solitude et les idéations suicidaires chez des étudiants. Ce résultat illustre un paradoxe central : les technologies d’IA pourraient offrir un premier point de contact pour des personnes qui ne consultent pas, mais elles ne disposent pas des garde-fous cliniques nécessaires pour gérer une crise suicidaire. Lee et al. (2025) confirment que les patients eux-mêmes reconnaissent le potentiel de l’IA tout en préférant qu’un professionnel humain reste dans la boucle décisionnelle.

Personnes âgées  

Enjeux spécifiques du consentement et de la cognition

Parchmann et al. (2024) ont conduit une évaluation éthique approfondie auprès de professionnels de santé sur les enjeux, les opportunités et les limites de l’intégration de l’IA dans le traitement des patients gériatriques. Leurs résultats identifient plusieurs facteurs de vulnérabilité spécifiques : le déclin cognitif (même léger) peut compromettre la compréhension du fonctionnement d’un système d’IA ; la fracture numérique limite l’accès et la maîtrise des interfaces ; et l’isolement social réduit les possibilités de soutien en cas de difficulté.

Dans le contexte de l’EMDR, les personnes âgées présentant un TSPT (souvent lié à des traumatismes anciens réactivés par des événements de vie tardifs : deuil, perte d’autonomie, hospitalisation) constituent un public pour lequel la technologie pourrait être un levier d’accessibilité (séances à domicile, réduction des déplacements), à condition que l’interface soit adaptée et que la supervision clinique soit maintenue.

Risque de confusion humain-machine

Fiske et al. (2018) identifient le risque de confusion entre un agent IA et un thérapeute humain comme un enjeu éthique majeur. Ce risque est particulièrement aigu chez les personnes âgées présentant des troubles cognitifs, qui pourraient ne pas comprendre qu’elles interagissent avec un système automatisé. L’EU AI Act (article 52) impose l’obligation d’informer les utilisateurs lorsqu’ils interagissent avec une IA, mais la mise en œuvre de cette obligation auprès de patients âgés déments ou confus pose des défis pratiques considérables.

Enfants et adolescents 

Un public particulièrement exposé aux chatbots

Les enfants et adolescents constituent une population paradoxale dans ce contexte : ils sont parmi les plus familiers des interfaces numériques, mais aussi parmi les plus vulnérables à leurs risques. Grabb et al. (2024) documentent des cas de décompensation psychotique liée à l’utilisation intensive du chatbot Character.AI, un outil non médical utilisé massivement par des adolescents. Yuan et al. (2024) montrent que les interactions émotionnelles répétées avec des chatbots peuvent affecter la socialisation et créer une dépendance émotionnelle, une dynamique particulièrement préoccupante à un âge où les compétences relationnelles sont en cours de construction.

L’EMDR numérique avec les mineurs : un vide de données

La littérature sur l’EMDR assisté par IA ne comporte, à notre connaissance, aucune étude spécifiquement conduite auprès d’enfants ou d’adolescents. L’étude de Fiani et al. (2023) et la plateforme de Russo et al. (2024) ont été testées exclusivement auprès d’adultes. Ce vide est d’autant plus notable que l’EMDR est fréquemment utilisé en clinique pédiatrique et que les applications auto-administrées sont accessibles à toute personne possédant un smartphone, sans vérification d’âge.

Consentement éclairé et autorité parentale

Le consentement éclairé d’un mineur soulève des questions juridiques et éthiques spécifiques. Les directives de l’APA (2024-2025) rappellent que le psychologue doit s’assurer que le consentement est adapté au niveau de développement du patient. Dans le cas d’un outil numérique d’EMDR, cela implique d’expliquer à l’enfant (et à ses parents) non seulement la nature du traitement, mais aussi la présence de l’IA, les données collectées et les limites du système. La protection des données des mineurs est renforcée par le RGPD (article 8) et l’EU AI Act, qui classifient les systèmes d’IA interagissant avec des mineurs comme nécessitant une vigilance accrue.

Patients présentant des comorbidités psychiatriques sévères  

Dissociation et déstabilisation

Les patients présentant des troubles dissociatifs constituent une population à risque spécifique en EMDR, indépendamment de toute dimension technologique. L’ajout d’une dimension numérique et d’une interface IA amplifie ces risques. La théorie polyvagale de Porges (2021) offre un cadre théorique pour comprendre pourquoi la présence physique et la régulation relationnelle du thérapeute sont essentielles pour ces patients : le système nerveux autonome, en cas de traumatisme, nécessite des signaux de sécurité interpersonnels que l’IA ne peut pas fournir. Hase et al. (2025) confirment empiriquement l’importance de la relation thérapeutique comme facteur d’efficacité de l’EMDR.

Waterman et Cooper (2020) signalent explicitement le risque d’« expériences très perturbantes » lors de l’auto-administration de l’EMDR sans supervision, avec un potentiel de conséquences sévères. Van Schie et Van Veen (2025) confirment que les effets indésirables de l’EMDR — aggravation transitoire des symptômes, épisodes dissociatifs, réactivation traumatique non contenue — sont un domaine de recherche négligé mais urgent.

Troubles psychotiques et vulnérabilité aux interactions IA

Grabb et al. (2024) documentent le phénomène de « psychose chatbot », où des utilisateurs développent des croyances délirantes liées à leurs interactions avec un agent conversationnel. Si ces cas sont liés à des chatbots de divertissement (Character.AI), ils alertent sur la vulnérabilité particulière des patients présentant une prédisposition psychotique. Kirk et al. (2025) théorisent le besoin d’un « alignement socio-affectif » dans les relations humain-IA et soulignent que les systèmes actuels ne sont pas conçus pour gérer les distorsions cognitives caractéristiques des troubles psychotiques.

Pour le clinicien EMDR, ces données impliquent une extrême prudence dans l’utilisation d’outils numériques avec des patients présentant des antécédents ou des symptômes psychotiques, même légers.

Biais algorithmiques et inégalités d’accès  

L’une des promesses de l’IA en santé mentale est de réduire les inégalités d’accès aux soins. Paradoxalement, les systèmes d’IA peuvent également les aggraver. Wang et al. (2025), dans leur revue systématique sur les implications éthiques de l’IA générative en santé mentale, identifient les biais algorithmiques comme une préoccupation majeure. Les modèles sont entraînés sur des corpus qui sous-représentent certaines populations (minorités ethniques, populations non anglophones, contextes socioéconomiques défavorisés), ce qui peut se traduire par des réponses moins adaptées, voire stigmatisantes, pour ces groupes.

L’APA (2024-2025) rappelle explicitement l’obligation de vigilance face aux biais algorithmiques susceptibles de creuser les inégalités de qualité des soins. Palanica et al. (2019) montrent que les médecins eux-mêmes identifient les biais comme un risque majeur des chatbots en santé. L’EU AI Act (article 10) impose des exigences de qualité pour les jeux de données utilisés dans l’entraînement des systèmes d’IA à haut risque, afin précisément de réduire les biais discriminatoires.

Pour le clinicien EMDR utilisant un outil assisté par IA, la question concrète est : cet outil a-t-il été validé auprès de patients comparables au mien ? La réponse, dans la grande majorité des cas, est non. Les études existantes portent sur des échantillons restreints, souvent occidentaux et anglophones (Fiani et al., 2023 ; Russo et al., 2024), et aucune n’a spécifiquement testé la plateforme auprès de populations vulnérables identifiées.

Synthèse : risques et adaptations par population 

Tableau 1. Risques spécifiques et adaptations recommandées par profil de vulnérabilité

PopulationRisques spécifiquesAdaptations recommandéesRéférences clés
Réfugiés et migrantsTraumatismes complexes, barrières linguistiques et culturelles, isolement, biais algorithmiques, absence de réseau de soutien en cas de criseAdaptation linguistique et culturelle de l’interface ; supervision clinique obligatoire ; éviter l’auto-administration ; accès à un interprèteWaterman & Cooper, 2020 ; Moore et al., 2025 ; Kang & Hong, 2025
Patients suicidairesIA non fiable pour détecter le risque dans les cas complexes ; réactivation traumatique ; absence de gestion de crise en temps réelSupervision humaine stricte ; protocoles de crise prédéfinis ; suivi entre les séances ; ne pas déléguer l’évaluation du risque à l’IABurback et al., 2024 ; Levkovich & Elyoseph, 2023 ; Maples et al., 2024
Personnes âgéesDéclin cognitif ; fracture numérique ; confusion humain-machine ; isolement socialInterface simplifiée ; vérification répétée du consentement ; aide technique par un tiers de confiance ; supervision clinique rapprochéeParchmann et al., 2024 ; Fiske et al., 2018
Enfants et adolescentsVulnérabilité à la dépendance émotionnelle ; absence d’études spécifiques ; accès non contrôlé aux applicationsConsentement adapté à l’âge + autorité parentale ; interdire l’auto-administration ; éducation au numérique ; supervision systématiqueGrabb et al., 2024 ; Yuan et al., 2024 ; APA, 2024-2025
Comorbidités sévères (dissociation, psychose)Risque de décompensation ; psychose chatbot ; incapacité de l’IA à détecter la dissociation ; absence de régulation relationnelleContre-indication relative des outils autonomes ; privilégier la présence physique ; réserver le distanciel aux phases stabilisées uniquementVan Schie & Van Veen, 2025 ; Porges, 2021 ; Hase et al., 2025 ; Kirk et al., 2025

Ce tableau est une synthèse indicative destinée à la réflexion clinique. Chaque décision d’intégration d’un outil numérique doit être fondée sur une évaluation individuelle du patient, de ses ressources et de son contexte.

Recommandations pour les cliniciens  

À partir de la synthèse de la littérature, six recommandations pratiques se dégagent pour les cliniciens EMDR travaillant avec des populations vulnérables.

Évaluer la vulnérabilité avant d’introduire un outil numérique. 

Avant toute intégration d’un outil d’EMDR numérique ou assisté par IA, le clinicien devrait évaluer systématiquement les facteurs de vulnérabilité du patient : niveau cognitif, maîtrise de la langue, stabilité symptomatique, réseau de soutien, compétences numériques, risque suicidaire et dissociatif. Cette évaluation doit être documentée dans le dossier clinique.

Adapter le consentement éclairé au profil du patient. 

Le consentement doit être formulé dans un langage accessible, adapté au niveau de développement (mineurs), aux capacités cognitives (personnes âgées) et aux références culturelles (réfugiés) du patient. Il doit expliciter la présence de l’IA, les données collectées et les limites du système. Pour les mineurs, le double consentement (enfant + autorité parentale) est requis. Pour les patients présentant des troubles cognitifs, le consentement doit être réévalué régulièrement (Parchmann et al., 2024 ; APA, 2024-2025).

Maintenir une supervision clinique proportionnée au risque. 

Plus le patient est vulnérable, plus la supervision doit être rapprochée. Pour les patients suicidaires, la supervision doit être active et continue, comme dans le modèle de Burback et al. (2024). Pour les patients dissociatifs, la présence physique du thérapeute doit être privilégiée. L’auto-administration de l’EMDR par application ne devrait jamais être recommandée à un patient vulnérable.

Prévoir des protocoles de crise. 

Tout usage d’EMDR numérique avec des populations vulnérables devrait s’accompagner d’un protocole de crise prédéfini : numéro d’urgence accessible, procédure de rappel immédiat, exercices de stabilisation disponibles dans l’application, et consigne claire au patient sur la conduite à tenir en cas de détresse aiguë.

Interroger les biais de l’outil utilisé. 

Le clinicien doit se poser la question : cet outil a-t-il été validé auprès de patients comparables au mien ? Dans la négative, son utilisation doit être envisagée avec une extrême prudence et une vigilance clinique accrue. Les biais algorithmiques liés au genre, à l’âge, à la culture et à la langue sont une réalité documentée (Wang et al., 2025 ; Moore et al., 2025).

Se former spécifiquement. 

L’intégration d’outils numériques auprès de populations vulnérables requiert des compétences qui ne s’improvisent pas : compétences techniques (comprendre le fonctionnement de l’outil), éthiques (connaître les cadres réglementaires et les directives professionnelles), cliniques (adapter le protocole au profil du patient) et métacognitives (résister à la tentation de déléguer le jugement clinique à l’IA ; Fan et al., 2024). La formation continue est la meilleure garantie de pratique sûre.

Limites de cet article 

Plusieurs limites doivent être signalées. 

Premièrement, la littérature spécifique à l’intersection EMDR, IA et populations vulnérables est extrêmement limitée. Seule l’étude de Burback et al. (2024) cible spécifiquement une population à haut risque (patients suicidaires) avec un outil d’EMDR distanciel. Les autres recommandations formulées ici sont extrapolées à partir de la littérature générale sur l’IA en santé mentale et sur l’EMDR avec des populations spécifiques, non depuis des études combinant les deux champs.

Deuxièmement, les catégories de vulnérabilité retenues ne sont pas exhaustives. D’autres profils pertinents (personnes en situation de handicap sensoriel, patients incarnés, populations pénitentiaires, personnes présentant des troubles du spectre autistique) n’ont pas été traités faute de données suffisantes. Troisièmement, le paysage technologique et réglementaire évolue très rapidement ; de nouvelles études, plateformes ou directives pourraient modifier les conclusions présentées ici.

Conclusion 

L’intégration de l’intelligence artificielle dans la thérapie EMDR ne peut s’envisager de manière uniforme. Les populations vulnérables — réfugiés, patients suicidaires, personnes âgées, enfants et adolescents, patients présentant des comorbidités psychiatriques sévères — présentent des facteurs de risque spécifiques qui exigent une adaptation du modèle au profil de chaque patient.

La littérature scientifique converge sur plusieurs points. Le modèle supervisé (thérapeute dans la boucle) est le seul qui puisse prétendre à une utilisation sûre avec des populations vulnérables, comme l’illustre l’essai de Burback et al. (2024). L’auto-administration de l’EMDR par application est particulièrement risquée pour ces patients (Waterman & Cooper, 2020 ; Van Schie & Van Veen, 2025). L’évaluation du risque suicidaire et la détection de la dissociation ne peuvent être déléguées à l’IA (Levkovich & Elyoseph, 2023). Les biais algorithmiques constituent un facteur d’inégalité supplémentaire pour des populations déjà fragilisées (Wang et al., 2025 ; Moore et al., 2025).

Pour le clinicien EMDR, ces constats ne doivent pas conduire au rejet des outils numériques, mais à leur intégration différenciée : avec prudence, en proportion du risque, et toujours au service de la relation thérapeutique et du jugement clinique. Se former à ces enjeux, c’est se donner les moyens d’offrir à chaque patient — y compris le plus vulnérable — les bénéfices de l’innovation sans en subir les risques.

En savoir plus 

L’intelligence artificielle en santé mentale est un champ en transformation constante : de nouvelles études, réglementations et technologies émergent chaque mois. Cet article constitue un point de repère solide à la date de sa rédaction, mais la meilleure protection pour vos patients reste votre engagement dans une veille scientifique et une formation continue. 

Références citées dans l’article 

  • American Psychological Association (2024–2025). Ethical guidance on artificial intelligence in professional psychological practice. https://www.apa.org/topics/artificial-intelligence-machine-learning/ethical-guidance-ai-professional-practice
  • Burback, L., et al. (2024). Web-based therapist-delivered EMDR for adults with suicidal ideation: A randomized controlled trial. [Journal à confirmer].
  • EU AI Act — Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées en matière d’intelligence artificielle.
  • Fan, Y., et al. (2024). Beware of metacognitive laziness: Effects of generative artificial intelligence on learning motivation, processes, and performance.
  • Fiani, F., Russo, S., & Napoli, C. (2023). An Advanced Solution Based on Machine Learning for Remote EMDR Therapy. Technologies.
  • Fiske, A., Henningsen, P., & Buyx, A. (2018). Your Robot Therapist Will See You Now: Ethical Implications of Embodied Artificial Intelligence in Psychiatry, Psychology, and Psychotherapy. Journal of Medical Internet Research, 21. https://doi.org/10.2196/13216
  • Grabb, D., Lamparth, J., & Vasan, A. (2024). Character.AI and the Challenge of Chatbot Psychosis. arXiv preprint. https://arxiv.org/abs/2507.19218
  • Hase, M., Brisch, K., Solomon, R., & Hase, A. (2025). The therapeutic relationship in EMDR therapy—A survey. Frontiers in Psychology, 16. https://doi.org/10.3389/fpsyg.2025.1519665
  • Heston, T. F. (2023). Safety of large language models in addressing depression. Cureus, 15(12), e50729. https://doi.org/10.7759/cureus.50729
  • Hipgrave, L., Goldie, J., Dennis, S., & Coleman, A. (2025). Balancing risks and benefits: Clinicians’ perspectives on the use of generative AI chatbots in mental healthcare. Frontiers in Digital Health, 7. https://doi.org/10.3389/fdgth.2025.1606291
  • Kang, B., & Hong, M. (2025). Development and Evaluation of a Mental Health Chatbot Using ChatGPT 4.0: Mixed Methods User Experience Study With Korean Users. JMIR Medical Informatics, 13(1), e63538. https://doi.org/10.2196/63538
  • Kirk, H. R., Gabriel, I., Summerfield, C., Vidgen, B., & Hale, S. A. (2025). Why human–AI relationships need socioaffective alignment. Humanities and Social Sciences Communications, 12(1). https://doi.org/10.1057/s41599-025-04532-5
  • Lee, H. S., Wright, C., Ferranto, J., et al. (2025). Artificial intelligence conversational agents in mental health: Patients see potential, but prefer humans in the loop. Frontiers in Psychiatry, 15, Article 1505024. https://doi.org/10.3389/fpsyt.2024.1505024
  • Levkovich, I., & Elyoseph, Z. (2023). Suicide risk assessments through the eyes of ChatGPT-3.5 versus ChatGPT-4: Vignette study. JMIR Mental Health, 10, e51232. https://doi.org/10.2196/51232
  • Li, H., Zhang, R., Lee, Y., Kraut, R., & Mohr, D. (2023). Systematic review and meta-analysis of AI-based conversational agents for promoting mental health and well-being. NPJ Digital Medicine, 6. https://doi.org/10.1038/s41746-023-00979-5
  • Maples, B., Cerit, M., Vishwanath, A., & Pea, R. (2024). Loneliness and suicide mitigation for students using GPT-3-enabled chatbots. npj Mental Health Research, 3, Article 4. https://doi.org/10.1038/s44184-023-00047-6
  • Mennella, C., Maniscalco, U., De Pietro, G., & Esposito, M. (2024). Ethical and regulatory challenges of AI technologies in healthcare: A narrative review. Heliyon, 10. https://doi.org/10.1016/j.heliyon.2024.e26297
  • Moore, J., Grabb, D., Agnew, W., et al. (2025). Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers. Proceedings of the ACM Conference on Fairness, Accountability, and Transparency. https://doi.org/10.1145/3715275.3732039
  • Organisation mondiale de la santé (2021, 2024). Ethics and governance of artificial intelligence for health. WHO Publications.
  • Palanica, A., Flaschner, P., Thommandram, A., Li, M., & Fossat, Y. (2019). Physicians’ perceptions of chatbots in health care: Cross-sectional web-based survey. Journal of Medical Internet Research, 21(4), e12887. https://doi.org/10.2196/12887
  • Parchmann, N., Hansen, D., Orzechowski, M., & Steger, F. (2024). An ethical assessment of professional opinions on concerns, chances, and limitations of the implementation of an AI-based technology into geriatric patient treatment and continuity of care. GeroScience, 46, 6269–6282. https://doi.org/10.1007/s11357-024-01229-6
  • Porges, S. W. (2021). Polyvagal Safety: Attachment, Communication, and Self-Regulation. W. W. Norton & Company.
  • RGPD — Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel.
  • Russo, S., Fiani, F., & Napoli, C. (2024). Remote Eye Movement Desensitization and Reprocessing Treatment of Long-COVID- and Post-COVID-Related Traumatic Disorders. Brain Sciences, 14. https://doi.org/10.3390/brainsci14121212
  • Suh, J., Chang, S., & Park, H. (2025). Optimization of Video Stimuli Parameters in EMDR Therapy Using Artificial Neural Networks for Enhanced Treatment Efficacy. Applied Sciences. https://doi.org/10.3390/app15020934
  • Van Schie, K., & Van Veen, S. (2025). Adverse effects of Eye Movement Desensitization and Reprocessing therapy: A neglected but urgent area of inquiry. Current Opinion in Psychology, 67, 102155. https://doi.org/10.1016/j.copsyc.2025.102155
  • Wang, X., Zhou, Y., & Zhou, G. (2025). The application and ethical implication of generative AI in mental health: Systematic review. JMIR Mental Health, 12, e70610. https://doi.org/10.2196/70610
  • Waterman, L. Z., & Cooper, M. (2020). Self-Administered EMDR Therapy: Potential Solution for Expanding the Availability of Psychotherapy for PTSD or Unregulated Recipe for Disaster? BJPsych Open.
  • Yuan, Z., Cheng, X., & Duan, Y. (2024). Impact of media dependence: How emotional interactions between users and chat robots affect human socialization? Frontiers in Psychology, 15, 1388860. https://doi.org/10.3389/fpsyg.2024.1388860

Aller plus loin 

Formation(s) : L’usage des intelligences artificielles par les patients : enjeux cliniques, éthiques et thérapeutiques 

M’inscrire Vous avez une question ?