
Dossier EMDR et Intelligence artificielle
Mis à jour le 20 février 2026
Document évolutif – Mise à jour : février 2026
L’intelligence artificielle (IA) transforme en profondeur le champ de la santé mentale. En l’espace de quelques années, les chatbots conversationnels, les plateformes de thérapie à distance assistée par IA et les outils d’optimisation algorithmique ont modifié le paysage dans lequel exercent les praticiens EMDR. Parallèlement, des dizaines de millions de personnes – les jeunes en tête – utilisent désormais des chatbots comme confidents, voire comme substituts de psychothérapeutes, souvent à l’insu de leurs soignants.
Ce dossier rassemble les informations essentielles à la croisée de deux domaines : la thérapie EMDR et l’intelligence artificielle. Il s’adresse aux praticiens, formateurs et chercheurs en psychotraumatologie qui souhaitent disposer d’un document de référence synthétique, actualisé régulièrement, couvrant aussi bien les applications cliniques prometteuses que les enjeux éthiques et les risques documentés.
Chaque section renvoie, lorsqu’ils existent, aux articles détaillés de notre série « EMDR & IA », qui approfondissent un aspect particulier. Le dossier, lui, offre une vue d’ensemble et constitue un point d’entrée unique pour naviguer dans cette thématique en évolution rapide.
| À propos de ce document – Ce dossier est conçu comme un document évolutif, enrichi au fil des mois à mesure que de nouvelles données, études et événements viennent compléter l’état des connaissances. La date de dernière mise à jour est indiquée en couverture. Les sections marquées d’un crayon (✎) signalent les endroits où des ajouts sont prévus ou en attente d’information. |
L’IA au service de l’EMDR : applications cliniques
La recherche à l’intersection de l’EMDR et de l’IA est encore émergente, mais plusieurs directions se dessinent déjà clairement. Elles couvrent un spectre large, de l’optimisation technique des paramètres de stimulation à la délivrance complète de la thérapie par un agent virtuel autonome.
Optimisation des paramètres de stimulation par réseaux de neurones
L’une des contributions les plus concrètes de l’IA à l’EMDR concerne l’optimisation des paramètres de stimulation visuelle. L’étude pionnière de Suh, Chang et Park (2025), publiée dans Applied Sciences, a utilisé un réseau de neurones artificiels (RNA) fondé sur le modèle de Traitement Adaptatif de l’Information (TAI) de Francine Shapiro pour déterminer les valeurs idéales des paramètres de stimuli vidéo en EMDR.
Parmi les 2 860 combinaisons modélisées, les paramètres ayant obtenu le score d’efficacité prédit (PES) le plus élevé – soit 98,7 % – sont : une vitesse de 1,8 Hz, une taille de 70 pixels (1,85 cm) et une distance de 1 440 pixels (38,1 cm). Ces paramètres optimaux améliorent l’efficacité de 12,31 % par rapport aux paramètres standard, avec une réduction mesurable des ondes bêta du lobe frontal droit.
Portée clinique : cette étude fournit pour la première fois des paramètres optimaux déterminés par une méthodologie computationnelle pour les stimulations bilatérales alternées en vidéo, un outil précieux pour les praticiens utilisant des supports vidéo, notamment à distance.
▶ Article de la série : 1,8 Hz, 70 pixels, 38,1 cm : la recette de l’efficacité EMDR à 98,7 %
EMDR à distance assistée par IA
Plusieurs équipes ont développé des plateformes permettant de délivrer l’EMDR à distance, avec le soutien d’algorithmes d’IA. Le modèle le plus avancé est celui de Fiani, Russo et Napoli (2023), qui combine apprentissage automatique (machine learning), détection de la distance, calibrage caméra et eye-tracking pour créer un environnement virtuel de thérapie EMDR. Le système crée une barre lumineuse virtuelle pour la stimulation bilatérale tout en permettant au thérapeute de monitorer l’engagement du patient en temps réel.
Les résultats montrent une amélioration de la relaxation et une réduction du stress significatives par rapport aux conditions contrôles (chi-carré = 8, p = 0,046). L’étude de Russo et al. (2024) a ensuite appliqué cette plateforme à des patients souffrant de troubles liés au COVID long, démontrant des résultats comparables aux séances en présentiel lorsqu’un thérapeute reste activement impliqué.
Point clé : dans ce modèle, l’IA renforce le rôle du thérapeute plutôt qu’elle ne le remplace. Le clinicien reste facilitateur et guide, avec des capacités de suivi améliorées. Ce positionnement est celui qui recueille le plus de soutien dans la communauté scientifique.
Chatbots et assistants virtuels EMDR
Un courant de recherche plus audacieux explore la possibilité de délivrer l’EMDR de manière autonome via des chatbots ou applications mobiles. Les travaux de Goga et al. (2020, 2022) présentent des assistants virtuels utilisant des stimulations vidéo, audio et tactiles, avec des résultats préliminaires montrant une réduction de l’anxiété et de la détresse pour des symptômes légers de TSPT.
Cependant, la revue systématique de Waterman et Cooper (2020) souligne les risques importants de l’auto-administration non supervisée. Les experts avertissent que l’EMDR auto-administrée peut être « très perturbante » avec un risque de « conséquences fatales » en l’absence de mise en œuvre encadrée. Francine Shapiro elle-même avait mis en garde contre l’utilisation non supervisée des techniques EMDR.
Les applications d’auto-administration EMDR disponibles sur les stores (Apple, Android) opèrent largement sans régulation, sans intégration aux services de santé mentale, et sans contrôle de qualité. L’association EMDR UK & Ireland a rappelé l’importance de suivre les procédures standardisées validées par la recherche.
| Synthèse : IA guidée vs. auto-administrée – Les données actuelles soutiennent l’EMDR à distance assistée par IA comme une approche viable lorsqu’une supervision professionnelle est maintenue. En revanche, les preuves restent insuffisantes pour soutenir une mise en œuvre généralisée de l’EMDR auto-administrée, en raison de limites méthodologiques, de préoccupations de sécurité non résolues et de la disponibilité généralisée d’applications non réglementées et potentiellement de mauvaise qualité. |
Biomarqueurs vocaux et détection assistée par IA
L’analyse des biomarqueurs vocaux par IA constitue une avancée majeure pour la détection précoce des troubles mentaux. L’étude d’Elbéji et al. (2024), publiée dans PLOS Digital Health, a développé un algorithme basé sur la voix capable de prédire le statut de diabète de type 2, illustrant la puissance de ces approches. Appliquée à la santé mentale, cette technologie offre des taux de sensibilité de 71 % et de spécificité de 73 % pour la détection de la dépression.
Perspectives pour l’EMDR : comme l’a souligné le Pr Cyril Tarquinio lors du congrès EMDR France 2025, ces biomarqueurs pourraient à terme permettre l’adaptation en temps réel des protocoles thérapeutiques EMDR, le monitorage de l’état émotionnel du patient pendant le retraitement, et une évaluation clinique « à 360° » dépassant le seul diagnostic psychopathologique.
EMDR et réalité virtuelle
La réalité virtuelle (RV) ouvre un champ d’application innovant pour l’EMDR. L’étude marquante de Liu et al. (2025), publiée dans National Science Review, a démontré pour la première fois les mécanismes neurobiologiques sous-jacents à l’efficacité d’un protocole d’extinction EMDR en réalité virtuelle dans la prévention de la rechute cocaïnique.
L’étude révèle qu’un circuit neuronal spécifique (SCiCaMKIIα→LCTH→dCA3) orchestre la reprise de consommation via une libération dopaminergique phasique en réponse aux stimuli environnementaux. Le protocole VR-EMDR inhibe sélectivement ce circuit, offrant une base neurobiologique robuste pour l’application clinique.
Au-delà des addictions : les environnements virtuels immersifs pourraient optimiser l’exposition thérapeutique et la régulation émotionnelle dans le traitement du TSPT, en créant des contextes contrôlés permettant la désensibilisation progressive.
La vision de la « psychothérapie augmentée »
Lors du congrès EMDR France 2025 à La Rochelle, le Pr Cyril Tarquinio a présenté une conférence plénière intitulée « Quand l’Intelligence Artificielle Réinvente la Thérapie », dressant un panorama des applications émergentes de l’IA en psychothérapie EMDR.
Sa vision intègre plusieurs dimensions : les chatbots thérapeutiques (avec une méta-analyse portant sur 29 études et 13 essais cliniques contrôlés démontrant leur efficacité auprès des jeunes de 10 à 24 ans), les biomarqueurs vocaux, la réalité virtuelle immersive, et les modèles de diagnostic personnalisé basés sur l’IA. Le projet Research Domain Criteria (RDoC) redéfinit même la classification des troubles mentaux à partir de données neuroscientifiques et génétiques.
Le Pr Tarquinio a insisté sur un point fondamental : la technologie ne remplace pas le thérapeute mais vient en complément de l’activité clinique. L’importance d’un fondement théorique solide dans le développement de ces outils a été réaffirmée.
Les patients, l’IA et le clinicien EMDR
Indépendamment des applications spécifiques à l’EMDR, les praticiens sont confrontés à un phénomène massif : leurs patients utilisent déjà l’IA, souvent comme confident, parfois comme substitut de psychothérapeute. Comprendre ce phénomène est désormais indispensable pour tout clinicien.
Un usage massif et en croissance rapide
Les données disponibles convergent vers un constat sans ambiguïté : l’usage de l’IA comme outil de soutien psychologique est devenu un phénomène de masse. Quelques repères chiffrés permettent d’en prendre la mesure.
• Selon une étude OpenAI/MIT (2025) portant sur 4 millions de conversations, environ 18 % des échanges avec ChatGPT abordent des thématiques de santé mentale.
• Un sondage IFOP (2024) révèle que 47 % des 18-24 ans en France ont déjà utilisé un chatbot pour parler de leurs problèmes personnels.
• L’étude Mentalo/Inserm montre que la durée moyenne de conversation à visée de soutien psychologique avec un chatbot dépasse souvent celle d’une séance thérapeutique standard.
• Les études RAND et Harvard Business Review documentent l’ampleur du phénomène à l’échelle internationale.
Implication directe pour le praticien EMDR : il est statistiquement probable qu’une proportion significative de vos patients ait déjà utilisé un chatbot IA avant, pendant ou entre les séances de thérapie. Cette réalité mérite d’être intégrée dans l’anamnèse et le suivi.
▶ Article de la série : Quand les patients utilisent l’IA comme psy : repères cliniques pour le praticien EMDR
Ce que les psychiatres observent en clinique
Les témoignages de psychiatres hospitaliers illustrent l’ampleur du phénomène dans la pratique quotidienne.
Le Pr Pierre-Alexis Geoffroy (hôpital Bichat, Paris) rapporte que la quasi-totalité de ses jeunes patients (18-40 ans) ont utilisé ChatGPT ou un autre chatbot avant de le consulter. Il observe que le « savoir » construit en autonomie avec le chatbot devient « difficile à bousculer en consultation » et que ces robots conversationnels peuvent « enfermer les patients dans une pensée ».
Le Pr Stéphane Mouchabac (hôpital Saint-Antoine) décrit le cas d’un jeune patient ayant soumis son dossier médical à ChatGPT : le patient arrivait en consultation avec les réponses du chatbot, invitant le psychiatre à les commenter. Un autre cas concerne un patient qui a préféré l’avis de ChatGPT sur ses symptômes à celui de son psychiatre.
Le Pr Philippe Domenech (hôpital Sainte-Anne) reconnaît que ces cas « entraînent pour l’instant des discussions informelles entre médecins sans vraiment de réflexion organisée » et que « tout va très vite ».
Cas graves documentés
Plusieurs cas graves, largement médiatisés, ont alerté les autorités et la communauté scientifique.
Sewell Setzer III (14 ans, Floride, février 2024) : adolescent qui s’est suicidé après avoir développé une relation émotionnelle intense avec un personnage fictif sur la plateforme Character.AI. Sa mère a engagé des poursuites judiciaires contre la plateforme.
Adam Raine (août 2025) : un autre cas de suicide d’un adolescent lié à des interactions avec une IA conversationnelle, ayant conduit à un durcissement du débat réglementaire aux États-Unis.
Ces tragédies ont accéléré les réponses réglementaires : restrictions de Character.AI pour les mineurs, loi spécifique de l’Illinois, auditions à la Chambre des représentants américaine (novembre 2025).
Dépendance émotionnelle et violations éthiques
Les études scientifiques confirment les inquiétudes cliniques.
Étude de l’université Brown (2025) : présentée en octobre 2025 à Madrid lors de la conférence AAAI/ACM, cette étude détaille comment les chatbots « violent systématiquement les normes éthiques établies par l’American Psychological Association », même lorsqu’ils sont incités à utiliser des techniques de psychothérapie fondées sur les preuves. Quinze types de violations ont été identifiés.
Communication de 9 neuroscientifiques (juillet 2025) : des chercheurs, dont certains chez des GAFAM, ont qualifié la situation de « nouveau problème de santé publique », soulignant les biais de complaisance (sycophancy), la dépendance des personnes fragiles et isolées, et l’altération possible des repères.
Mustafa Suleyman (cofondateur de DeepMind, directeur IA de Microsoft), interrogé par Nature en novembre 2025 sur ses plus grandes inquiétudes, a cité en premier le risque de délires lors d’interactions émotionnelles avec les chatbots.
▶ Article de la série : IA et santé mentale dans les médias francophones (2020-2026) : ce que la couverture médiatique révèle au clinicien
Voix d’experts
Les analyses des experts relayées dans la presse, parfois divergentes, dessinent le cadre dans lequel le débat public se structure.
Antonio Casilli, professeur à Télécom Paris, propose une lecture économique : la dépendance émotionnelle répond aux visées commerciales des entreprises d’IA.
Laurence Devillers, spécialiste de l’éthique de l’IA à la Sorbonne, dénonce la captation de l’attention comme stratégie marchande.
Xavier Briffault, sociologue au CNRS, situe le phénomène dans le contexte de l’échec du système de santé mentale français.
Ariane Calvo, psychothérapeute, distingue la verbalisation (que l’IA peut accompagner) du changement thérapeutique profond (qu’elle ne peut pas produire).
John Torous (Harvard Medical School), principal auteur de méta-analyses de référence en psychiatrie numérique, observe que « en France, en Amérique ou en Afrique du Sud, ces usages perturbent la profession ». Auditionné à la Chambre des représentants en novembre 2025, il note que lorsque les outils deviendront meilleurs et plus sûrs, « cela changera notre façon de pratiquer ».
Raphaël Gaillard (hôpital Sainte-Anne, Paris) parle d’une « pratique clinique augmentée », approche hybride où un médecin sera aidé par la technologie.
Ludovic Samalin (Clermont-Ferrand), copilote du « grand défi numérique en santé mentale » (programme public d’environ 15 millions d’euros), regrette que la Sécurité sociale ne rembourse encore aucun dispositif médical numérique en psychiatrie.
Ces voix dessinent un paysage où le clinicien retrouve ses propres questionnements, formulés dans un langage médiatique que ses patients ont intégré. Connaître ces positionnements permet de s’y référer ou de s’en distinguer dans le dialogue clinique.
La trajectoire de Clara Falala-Séchet offre un fil conducteur unique pour comprendre l’évolution du champ IA et santé mentale au cours des dernières années. Psychologue clinicienne, chercheuse et formatrice EMDR, elle est l’une des rares voix francophones à combiner une expérience de conception de chatbot thérapeutique (Owlie, 2018-2021), une activité de recherche publiée, et une pratique clinique active.
- Phase 1 (2018-2021) – Création. Co-créatrice d’Owlie, chatbot de soutien psychologique, Clara Falala-Séchet publie dans L’Information Psychiatrique, Frontiers in Psychiatry, contribue au Digital Mental Health Data Insights Group, et présente ses travaux dans des conférences internationales (IVA 2019, DU Éthique du numérique en santé, TEDxParisDescartes). Sa position est alors celle d’une innovatrice prudente, convaincue du potentiel des chatbots comme complément thérapeutique.
- Phase 2 (2023-2024) – Expertise consultée. Avec l’arrivée de ChatGPT et l’explosion de l’usage spontané des chatbots, elle est régulièrement sollicitée par les médias comme experte : Psycom, Le Figaro Santé, France 24. Elle commence à documenter les risques de l’utilisation non encadrée.
- Phase 3 (2025-2026) – Référence sur les risques. Elle publie un chapitre dans l’ouvrage collectif dirigé par Chidiac-Grizot et Auxéméry chez Elsevier Masson (« L’usage des chatbots et de l’intelligence artificielle pour traiter les traumas »), est citée par Marianne, Têtu, Philosophie Magazine, Le Monde. Sa position nuancée – ni technophobe ni technophile – constitue un repère précieux pour les cliniciens.
| La position Falala-Séchet, en résumé L’usage supervisé de l’IA est envisageable à certaines phases de la thérapie pour certains profils de patients, mais le risque de dépendance émotionnelle est réel. L’IA ne doit pas compenser les défaillances des politiques publiques de santé mentale. Le cadre thérapeutique et la supervision clinique restent non négociables. |
Le Pr Tarquinio représente le pôle « recherche et innovation » du débat. Sa conférence plénière au congrès EMDR France 2025 a posé les jalons d’une vision intégrative où l’IA, les biomarqueurs et la réalité virtuelle viennent enrichir la pratique EMDR, sans jamais se substituer au thérapeute. Il insiste sur la nécessité d’un fondement théorique solide pour tout outil d’IA dédié à la psychothérapie.
Le Dr Yann Auxéméry (psychiatre, HDR, également rattaché au Centre Pierre Janet), quant à lui, articule spécifiquement intelligence artificielle et psychotraumatologie. Ses travaux sur les marqueurs psycholinguistiques du traumatisme (le syndrome SPLIT) ont débouché sur une étude utilisant le machine learning pour détecter le TSPT à partir de l’analyse du langage, publiée dans Scientific Reports en 2024. En 2025, il a publié dans les Annales Médico-Psychologiques un appel à un programme national de recherche sur la place de l’IA dans l’identification et le traitement des traumatismes psychiques, et son concept de « psybot » — qu’il développe dans L’Évolution Psychiatrique et dans son ouvrage Le trauma et le langage (Dunod, 2025) — interroge frontalement la redéfinition de la psychothérapie à l’ère de l’IA.
Nathalie Malardier (Docteur en Psychologie, Superviseur EMDR Europe adultes et enfants/adolescents, Facilitatrice EMDR) incarne quant à elle la voix de la clinicienne de terrain. C’est l’observation directe de ce que ses patients font avec les IA entre les séances qui l’a conduite à développer des outils concrets : des questions d’anamnèse intégrant l’usage de l’IA, une grille d’analyse des bénéfices et des risques, et la construction de « prompts protecteurs » que le thérapeute peut co-élaborer avec le patient pour sécuriser son recours aux IA conversationnelles.
C’est d’ailleurs la rencontre de deux de ces approches — celle de Falala-Séchet et celle de Malardier — qui a donné naissance à la première formation continue EMDR explicitement dédiée à l’IA : « L’usage des intelligences artificielles par les patients : enjeux cliniques, éthiques et thérapeutiques », proposée par l’IFEMDR à partir de novembre 2026.
Ces quatre voix — Falala-Séchet, Tarquinio, Auxéméry, Malardier — couvrent ainsi des angles complémentaires : le chatbot clinique et la médiation numérique pour la première, la psychothérapie augmentée et l’innovation intégrative pour le deuxième, les linguomarqueurs automatisés et la réflexion épistémologique pour le troisième, les outils pratiques d’accompagnement des patients et la transmission par la formation pour la quatrième. Le fait qu’elles convergent autour des mêmes réseaux (Centre Pierre Janet, IFEMDR) et des mêmes maisons d’édition (Elsevier Masson, Dunod, In Press) dessine un écosystème francophone structuré, encore rare à l’échelle européenne, où recherche, clinique et formation s’alimentent mutuellement.
Enjeux éthiques et réglementaires
Consentement, transparence et autonomie
L’intégration de l’IA dans le parcours thérapeutique soulève des questions fondamentales de consentement éclairé. Les patients peuvent confondre chatbot et clinicien humain ; ils ne sont souvent pas informés du fonctionnement réel de l’outil qu’ils utilisent. La question se pose avec une acuité particulière pour les populations vulnérables (troubles cognitifs, troubles mentaux sévères, mineurs).
Protection des données
Les plateformes EMDR assistées par IA captent des données particulièrement sensibles : vidéo, audio, eye-tracking, données physiologiques. Les chatbots généralistes (ChatGPT, Character.AI) collectent des échanges intimes sans les garanties de confidentialité du cadre thérapeutique. La question de l’utilisation secondaire de ces données (entraînement de modèles, publicité ciblée) est légitimement préoccupante.
Relation thérapeutique et risque de déshumanisation
L’alliance thérapeutique est un facteur central d’efficacité de l’EMDR. La médiation ou le remplacement partiel du thérapeute par une IA risque de réduire l’empathie, la confiance et la compréhension contextualisée du patient. Par ailleurs, le temps « gagné » par l’IA pourrait être utilisé pour voir plus de patients plutôt que pour approfondir le lien thérapeutique, ce qui poserait un problème de bienfaisance.
Cadre réglementaire en évolution
Le paysage réglementaire évolue rapidement, avec plusieurs développements majeurs.
• AI Act européen : les applications d’IA en santé sont classées à haut risque et soumises à des exigences renforcées de transparence, de traçabilité et de supervision humaine.
• Loi de l’Illinois (2025) : première législation spécifique sur la protection des mineurs face aux chatbots émotionnels, adoptée après les cas de suicides documentés.
• Character.AI : mise en place de restrictions pour les mineurs (horaires, avertissements, détection de contenus sensibles), après pression médiatique et juridique.
• FDA et Chambre des représentants (novembre 2025) : enquête sur les risques des chatbots, difficulté à prouver leur efficacité, examen des cadres réglementaires.
• France – « Grand défi numérique en santé mentale » : programme public d’environ 15 millions d’euros, mais aucun dispositif médical numérique en psychiatrie remboursé par la Sécurité sociale à ce jour.
Paradoxe réglementaire : l’approche avec la plus grande rigueur méthodologique et supervision professionnelle (EMDR à distance guidée par IA) fait face à des barrières réglementaires plus élevées que l’approche présentant les plus grands risques (applications d’auto-administration EMDR en libre accès).
Ce que le praticien EMDR doit savoir
Cette partie synthétise les implications pratiques pour le clinicien EMDR, sous forme de repères concrets et directement utilisables.
Intégrer la question IA dans l’anamnèse
Compte tenu de la prévalence de l’usage de l’IA parmi les patients, il est recommandé d’inclure dans l’évaluation initiale et le suivi des questions portant sur l’utilisation de chatbots ou d’applications d’IA à visée de soutien psychologique. L’objectif n’est pas de juger mais de connaître les représentations et les « savoirs » que le patient a construits via ces outils, afin d’adapter le travail thérapeutique en conséquence.
Distinguer les types d’outils IA
Tous les outils d’IA ne se valent pas. Il est utile de distinguer :
• Les chatbots généralistes (ChatGPT, Gemini, Claude) : non conçus pour la thérapie, mais utilisés comme tels par les patients.
• Les chatbots émotionnels (Character.AI, Replika) : conçus pour créer un lien affectif, risque élevé de dépendance.
• Les chatbots thérapeutiques supervisés (Owlie, Woebot, Wysa) : conçus avec un cadre clinique, souvent adossés à des recherches, but complémentaire.
• Les dispositifs médicaux numériques (HelloBetter/Ello, Callyope) : certification en cours, intégration dans des parcours de soin, supervision incluse.
• Les plateformes de recherche EMDR-IA (Fiani et al., Goga et al.) : prototypes expérimentaux, non disponibles commercialement.
Connaître les narratifs médiatiques
Les patients arrivent en séance avec des représentations façonnées par la couverture médiatique. Trois vagues narratives se sont succédé depuis 2020 : un ton bienveillant autour des chatbots cliniques pendant la pandémie (2020-2021), une oscillation entre fascination et inquiétude avec ChatGPT (2023-2024), puis une dominante alarmiste centrée sur la dépendance émotionnelle et les cas de suicides (2025-2026). Le clinicien qui connaît ces narratifs est mieux équipé pour dialoguer avec ses patients sur leurs usages de l’IA.
▶ Article de la série : IA et santé mentale dans les médias francophones (2020-2026)
Se former et rester informé
Le rythme d’évolution de ce domaine impose une veille continue. Ce dossier sera mis à jour régulièrement. Pour approfondir chaque thématique, les articles de la série « EMDR & IA » sont référencés tout au long du document et récapitulés dans la section suivante.
Articles de la série « EMDR & IA »
Les articles suivants approfondissent les différentes facettes du dossier. Chacun peut être lu de manière indépendante ; ce dossier en propose la synthèse.





Bibliographie principale
Références scientifiques citées dans ce dossier (sélection).
- Carletto, S. et al. (2021). Eye movement desensitization and reprocessing for depression: a systematic review and meta-analysis. European Journal of Psychotraumatology, 12.
- De Jongh, A., De Roos, C. & El-Leithy, S. (2024). State of the science: Eye movement desensitization and reprocessing (EMDR) therapy. Journal of Traumatic Stress.
- Elbéji, A. et al. (2024). A voice-based algorithm can predict type 2 diabetes status in USA adults: Findings from the Colive Voice study. PLOS Digital Health, 3(12).
- Falala-Séchet, C., Antoine, L. & Thiriez, I. (2020). Owlie, un chatbot de soutien psychologique : pourquoi, pour qui ? L’Information Psychiatrique, 96(8), 659-666.
- Falala-Séchet, C. (2025). L’usage des chatbots et de l’intelligence artificielle pour traiter les traumas (chap. 15). In Chidiac-Grizot, N. & Auxéméry, Y. (Dirs.), Psychothérapies des traumatismes psychiques. Elsevier Masson.
- Fiani, F., Russo, S. & Napoli, C. (2023). An Advanced Solution Based on Machine Learning for Remote EMDR Therapy. Technologies.
- Fiske, A., Henningsen, P. & Buyx, A. (2018). Your Robot Therapist Will See You Now: Ethical Implications of Embodied AI in Psychiatry. Journal of Medical Internet Research, 21.
- Goga, N. et al. (2022). An Efficient System for EMDR Therapy: A Pilot Study. Healthcare, 10.
- Li, X. et al. (2023). [Conversational agents and mental health]. Systématic review on AI chatbots for depression and distress.
- Liu, Y. et al. (2025). A superior colliculus-originating circuit prevents cocaine reinstatement via VR-based eye movement desensitization treatment. National Science Review, 12(4).
- Mouchabac, S. et al. (2021). Psychiatric Advance Directives and Artificial Intelligence: A Conceptual Framework. Frontiers in Psychiatry, 11.
- Russo, S., Fiani, F. & Napoli, C. (2024). Remote EMDR Treatment of Long-COVID and Post-COVID-Related Traumatic Disorders. Brain Sciences, 14.
- Simpson, E. et al. (2025). Clinical and cost effectiveness of EMDR for treatment and prevention of PTSD in adults. British Journal of Psychology, 116.
- Suh, J., Chang, S. & Park, H. (2025). Optimization of Video Stimuli Parameters in EMDR Therapy Using Artificial Neural Networks. Applied Sciences, 15(2), 934.
- Waterman, L.Z. & Cooper, M. (2020). Self-Administered EMDR Therapy: Potential Solution or Unregulated Recipe for Disaster? BJPsych Open.
Sources médiatiques et rapports (sélection).
- Le Monde (janvier 2026). « Santé mentale : quand les chatbots et l’IA entrent en psychiatrie, les risques de la thérapie en libre-service. »
- Marianne (octobre 2025). « C’est devenu mon second psy : ChatGPT, Character.ai… quand les IA conversationnelles deviennent une addiction. »
- Têtu (octobre 2025). « Mon psy s’appelle ChatGPT : quand l’IA accompagne les troubles mentaux. »
- Communication de 9 neuroscientifiques (juillet 2025). « Nouveau problème de santé publique. »
- Étude université Brown, conférence AAAI/ACM, Madrid (octobre 2025). Violations éthiques des chatbots.
- Étude OpenAI/MIT (2025). Analyse de 4 millions de conversations.
- Elicit/Consensus (2026). Reports on EMDR and AI: Clinical and Ethical Perspectives.
