Données biométriques et EMDR numérique : Protéger la vie privée des patients à l’ère de l’intelligence artificielle

Données biométriques et EMDR numérique : Protéger la vie privée des patients à l’ère de l’intelligence artificielle

Mis à jour le 3 février 2026

Les plateformes d’EMDR numérique assistées par IA collectent des données de suivi oculaire, des flux vidéo et audio de séances traumatiques, et des mesures physiologiques. Ces données, parmi les plus intimes en médecine, appellent des protections proportionnées. Cet article synthétise la littérature scientifique récente, le cadre juridique (RGPD, EU AI Act, directives APA), et formule des recommandations pratiques pour les cliniciens.

L’intégration de l’intelligence artificielle (IA) dans la thérapie EMDR (Eye Movement Desensitization and Reprocessing) ouvre des perspectives cliniques prometteuses. Des plateformes distancielles permettent désormais de délivrer des séances d’EMDR à distance avec des résultats cliniques préliminaires encourageants lorsqu’un thérapeute reste activement impliqué (Russo et al., 2024). L’optimisation des paramètres de stimulation bilatérale par réseaux de neurones améliore les marqueurs physiologiques d’efficacité (Suh et al., 2025). Des outils de biofeedback intégrés au smartphone sont explorés comme adjuvants à l’EMDR pour le burnout (Maçorano et al., 2021).

Cependant, ces avancées technologiques s’accompagnent d’une collecte de données sans précédent en psychothérapie. Les plateformes numériques d’EMDR captent désormais des flux vidéo, audio, de suivi oculaire et de mesures physiologiques — autant de données biométriques particulièrement sensibles dans le contexte du traitement du traumatisme. Comme le soulignent Fiske et al. (2018), l’irruption de l’IA dans la psychiatrie et la psychothérapie soulève des questions éthiques fondamentales liées à l’intimité, à la surveillance et à la déshumanisation potentielle de la relation thérapeutique.

Au-delà du seul champ EMDR, la littérature émergente sur l’IA en santé mentale — incluant les chatbots thérapeutiques (Woebot, Tess, Wysa) et les agents conversationnels génératifs — documente des risques concrets de manière croissante : réponses inappropriées et stigmatisantes dans 15 types de violations éthiques récurrentes sur 137 sessions analysées (Moore et al., 2025), cas de décompensation psychotique liée à un chatbot (Grabb et al., 2024), et risque de dépendance émotionnelle (Yuan et al., 2024). Ces constats renforcent l’urgence d’un cadrage rigoureux de la protection des données dans l’ensemble de la psychothérapie numérique.

Cet article examine, à partir de la littérature scientifique récente, la nature des données collectées par ces plateformes, les risques spécifiques au contexte psychothérapeutique, le cadre juridique applicable en Europe et les directives professionnelles internationales (APA, OMS), puis formule des recommandations pratiques pour les cliniciens souhaitant intégrer ces outils de manière éthiquement défendable.

Quelles données biométriques sont collectées

Les plateformes d’EMDR assistées par IA ne se limitent pas à des échanges textuels ou vidéo classiques. Plusieurs études récentes documentent l’étendue des données recueillies, qui vont bien au-delà de ce que les systèmes de visioconférence standard génèrent.

Données de suivi oculaire (eye tracking)

La plateforme développée par Fiani et al. (2023) utilise des algorithmes d’apprentissage automatique (machine learning) pour calibrer la caméra du patient, détecter la distance patient-écran et suivre les mouvements oculaires en temps réel. Ces données servent initialement à adapter la stimulation bilatérale virtuelle (une barre lumineuse que le patient suit du regard), mais elles constituent également un flux biométrique extrêmement riche. La manière dont un patient suit ou évite un stimulus visuel peut révéler des informations sur son état émotionnel, son niveau de dissociation ou son engagement dans le processus thérapeutique.

Données vidéo et audio

Les sessions d’EMDR à distance impliquent la capture de flux vidéo et audio continus. Russo et al. (2024) décrivent une plateforme où le thérapeute supervise la séance par visioconférence intégrée, ce qui implique l’enregistrement potentiel de l’expression faciale, de la posture, du ton de voix et du contenu verbal du patient — y compris les récits traumatiques les plus intimes. Fiske et al. (2018) soulignent que ces données, dans un contexte psychothérapeutique, sont parmi les plus sensibles qu’un système numérique puisse collecter, car elles mêlent informations cliniques et récits d’expériences profondément personnelles.

Données physiologiques

Maçorano et al. (2021) explorent l’intégration de capteurs de biofeedback dans l’EMDR numérisé, permettant la mesure en temps réel de paramètres physiologiques tels que le rythme cardiaque, la conductance cutanée ou la variabilité de la fréquence cardiaque (HRV). Suh et al. (2025) utilisent également des marqueurs physiologiques comme indicateurs d’efficacité pour optimiser les paramètres de stimulation bilatérale par réseaux de neurones artificiels. L’ensemble de ces mesures constitue un profil biométrique d’une granularité inédite en psychothérapie.

Données comportementales et d’usage

Les applications d’EMDR auto-administrées (Goga et al., 2022) et les agents conversationnels en santé mentale (Li et al., 2023) collectent par ailleurs des métadonnées comportementales : durée et fréquence des sessions, taux de complétion des exercices, schémas d’utilisation dans le temps, interactions avec l’interface. Bien que moins intrusives en apparence que les données biométriques, ces informations permettent par agrégation de dresser un profil détaillé de l’état psychologique de l’utilisateur.

Tableau 1. Données collectées par les plateformes d’EMDR numérique

Type de donnéesDescriptionRéférences
Suivi oculairePosition du regard, saccades, fixations, évitement visuel, distance œil-écranFiani et al., 2023 ; Suh et al., 2025
Vidéo / AudioExpression faciale, posture, ton de voix, contenu verbal incluant récits traumatiquesRusso et al., 2024 ; Fiske et al., 2018
PhysiologiquesFréquence cardiaque, conductance cutanée, variabilité HRVMaçorano et al., 2021 ; Suh et al., 2025
ComportementalesDurée de session, taux de complétion, patterns d’usage, interactions avec l’interfaceGoga et al., 2022 ; Li et al., 2023

Pourquoi ces données sont-elles particulièrement sensibles ? 

La collecte de données biométriques en psychothérapie se distingue de celle pratiquée dans d’autres contextes médicaux pour au moins trois raisons fondamentales.

Intimité du contenu thérapeutique

L’EMDR amène les patients à revisiter des souvenirs traumatiques dans un état de vulnérabilité émotionnelle intense. Les enregistrements vidéo et audio de ces séances capturent non seulement des informations cliniques, mais aussi des récits d’expériences personnelles — agressions, violences, deuils — que les patients ne partagent souvent qu’avec leur thérapeute. Fiske et al. (2018) alertent sur le fait que les systèmes d’IA en psychiatrie et en psychothérapie créent un risque de « décontextualisation » : des expériences profondément intimes sont réduites à des variables traitables algorithmiquement, déconnectées du contexte relationnel et émotionnel dans lequel elles ont été partagées.

Inférences secondaires non consenties

Les données de suivi oculaire et les mesures physiologiques permettent des inférences qui dépassent l’objectif clinique initial. Les patterns de mouvements oculaires peuvent révéler des tendances dissociatives. La variabilité cardiaque peut trahir un état émotionnel que le patient n’a pas verbalisé. Les micro-expressions faciales capturées en vidéo peuvent être analysées pour inférer des états psychologiques. Mennella et al. (2024) soulignent dans leur revue narrative que les technologies d’IA en santé posent un problème fondamental d’inférences secondaires non consenties : des données recueillies pour un objectif précis peuvent être exploitées pour en déduire des informations que le patient n’avait jamais prévu de révéler.

Vulnérabilité des populations concernées

Les patients en EMDR présentent fréquemment un trouble de stress post-traumatique (TSPT), parfois associé à des comorbidités dissociatives, dépressives ou anxieuses. Parchmann et al. (2024) rappellent que le consentement éclairé est particulièrement difficile à obtenir de manière pleinement autonome auprès de personnes vulnérables, qu’il s’agisse de patients souffrant de troubles cognitifs, de pathologies psychiatriques sévères ou de personnes âgées fragiles. La question se pose également pour les populations réfugiées, identifiées par Waterman et Cooper (2020) comme utilisatrices potentielles d’applications EMDR auto-administrées, souvent dans des contextes où les barrières linguistiques et culturelles compliquent davantage la compréhension du consentement.

Moore et al. (2025) ajoutent une dimension supplémentaire : l’analyse de 137 sessions entre des LLM (grands modèles de langage) et des utilisateurs simulant des situations de santé mentale a révélé 15 types de violations éthiques récurrentes, dont des réponses stigmatisantes et des conseils inappropriés. Si de telles violations surviennent dans un contexte où des données biométriques sont également collectées, le préjudice potentiel pour le patient est considérablement amplifié.

Cadre juridique et directives professionnelles 

Trois niveaux de régulation et d’orientation sont pertinents pour les cliniciens : le cadre européen (RGPD et EU AI Act), les directives professionnelles internationales (APA) et les recommandations de l’OMS.

Le RGPD : socle européen de protection des données 

Le Règlement général sur la protection des données (RGPD, Règlement UE 2016/679) fournit le cadre juridique de référence. 

Plusieurs dispositions sont directement applicables aux plateformes d’EMDR numérique.

Qualification des données. Les données de suivi oculaire, de reconnaissance faciale et les mesures physiologiques constituent des « données biométriques » au sens de l’article 4(14) du RGPD, et des « données de santé » au sens de l’article 4(15). Leur traitement relève des catégories spéciales de données (article 9), nécessitant le consentement explicite du patient ou une base légale spécifique.

Principe de minimisation. L’article 5(1)(c) impose que les données collectées soient « adéquates, pertinentes et limitées à ce qui est nécessaire ». Or, les plateformes d’EMDR à distance captent souvent des flux vidéo et audio continus dont seule une fraction est nécessaire à la supervision clinique (Russo et al., 2024). La question de la minimisation est d’autant plus aiguë lorsque des algorithmes d’IA traitent ces flux pour en extraire des marqueurs comportementaux ou physiologiques.

Limitation des finalités. Mennella et al. (2024) soulignent le risque que des données collectées pour le suivi thérapeutique soient réutilisées pour l’entraînement d’algorithmes, la recherche commerciale ou le profilage. L’article 5(1)(b) du RGPD interdit cette réutilisation sans base juridique adéquate. Fiske et al. (2018) insistent sur la nécessité d’une limitation stricte de l’usage secondaire des données collectées en contexte psychothérapeutique.

Droits du patient. Les articles 17 (droit à l’effacement) et 20 (droit à la portabilité) garantissent au patient la possibilité de demander la suppression de ses données et d’en obtenir une copie dans un format portable. Ces droits sont essentiels dans le contexte de l’EMDR numérique, où le patient peut souhaiter changer de plateforme ou interrompre la thérapie à tout moment.

L’EU AI Act : une régulation spécifique de l’intelligence artificielle 

Adopté en 2024, le Règlement européen sur l’intelligence artificielle (EU AI Act) introduit pour la première fois un cadre législatif dédié aux systèmes d’IA. Plusieurs de ses dispositions sont directement pertinentes pour les plateformes d’EMDR numérique.

Classification par niveau de risque. L’EU AI Act adopte une approche fondée sur le risque. Les systèmes d’IA utilisés dans le domaine de la santé, et plus particulièrement ceux qui traitent des données biométriques pour des décisions affectant la santé des personnes, relèvent de la catégorie « haut risque » (Annexe III). Cette classification implique des obligations renforcées en matière de transparence, de gestion des risques, de qualité des données et de supervision humaine.

Obligations de transparence. L’article 13 impose que les systèmes d’IA à haut risque soient conçus de manière suffisamment transparente pour permettre aux utilisateurs (ici, thérapeutes et patients) de comprendre et d’interpréter les résultats du système. L’article 52 exige par ailleurs que les personnes soient informées lorsqu’elles interagissent avec un système d’IA — une obligation particulièrement pertinente au regard du risque de confusion humain/machine identifié par Fiske et al. (2018).

Supervision humaine. L’article 14 impose que les systèmes d’IA à haut risque soient conçus pour être supervisés par des êtres humains. Cette exigence rejoint la recommandation unanime de la littérature EMDR+IA : maintenir le thérapeute dans la boucle décisionnelle (Russo et al., 2024 ; Hipgrave et al., 2025).

Gestion des risques et qualité des données. Les articles 9 et 10 imposent respectivement un système de gestion des risques tout au long du cycle de vie du système d’IA, et des exigences de qualité pour les jeux de données utilisés dans l’entraînement. Ces dispositions s’appliquent directement aux plateformes d’EMDR qui utilisent des données de sessions thérapeutiques pour améliorer leurs algorithmes. Fiske et al. (2018) préconisent que les systèmes d’IA en santé mentale fassent l’objet d’une évaluation de risque au niveau du dispositif médical.

Les directives de l’APA (2024-2025)

L’American Psychological Association a publié en 2024-2025 des directives spécifiques sur l’utilisation éthique de l’intelligence artificielle dans la pratique psychologique professionnelle. Bien que ces directives soient américaines, elles constituent une référence internationale pour les praticiens francophones, en l’absence de directives équivalentes des sociétés savantes européennes.

L’APA insiste sur plusieurs principes directement transposables à l’EMDR numérique. Le psychologue demeure responsable de l’usage des outils d’IA qu’il intègre dans sa pratique, même lorsque les décisions sont partiellement automatisées. Le consentement éclairé doit expliciter la nature de l’IA utilisée, les données collectées et les limites du système. Le praticien doit maintenir ses compétences cliniques propres et ne pas déléguer à l’IA des évaluations qui relèvent du jugement professionnel. Enfin, l’APA rappelle l’obligation de vigilance face aux biais algorithmiques susceptibles de creuser les inégalités d’accès et de qualité des soins.

Recommandations de l’OMS

L’Organisation mondiale de la santé a publié des cadres directeurs sur l’éthique et la gouvernance de l’IA en santé (2021, 2024), appelant à la protection de l’autonomie humaine, à la transparence des systèmes, à la responsabilité des développeurs et des utilisateurs, et à une gouvernance inclusive. Ces principes s’appliquent pleinement aux plateformes d’EMDR numérique et complètent le cadre européen d’un point de vue de santé publique mondiale.

Les risques spécifiques identifiés dans la littérature 

Absence de régulation des applications auto-administrées

Waterman et Cooper (2020) documentent un paradoxe préoccupant : les applications EMDR auto-administrées, disponibles librement sur les stores Apple et Android, ne sont soumises à aucune régulation spécifique en matière de protection des données ou de qualité clinique. Ces outils, souvent utilisés sans supervision professionnelle, peuvent collecter des données comportementales et biométriques sans que l’utilisateur en comprenne pleinement la portée. Ce constat rejoint celui de Mennella et al. (2024) et de Wang et al. (2025), qui appellent respectivement à un encadrement réglementaire des technologies d’IA en santé mentale au niveau du dispositif médical et à une vigilance accrue sur les implications éthiques de l’IA générative.

Réutilisation des données pour l’entraînement algorithmique

Li et al. (2023), dans leur méta-analyse des agents conversationnels IA pour la santé mentale, soulèvent la question de la réutilisation des données de conversation pour l’amélioration des algorithmes. Dans le contexte de l’EMDR, les enregistrements de sessions thérapeutiques — contenant des récits traumatiques, des réactions émotionnelles et des données physiologiques — représentent un corpus d’entraînement d’une valeur considérable pour les développeurs. L’absence de transparence sur cette réutilisation constitue un manquement éthique majeur, en contradiction directe avec le principe de limitation des finalités du RGPD et les exigences de qualité des données de l’EU AI Act.

Le cas Character.AI documenté par Grabb et al. (2024) illustre les dérives possibles lorsque des plateformes d’IA conversationnelle collectent des interactions émotionnellement chargées sans garde-fous adéquats. Bien que ce cas ne concerne pas directement l’EMDR, il démontre que les interactions thérapeutiques avec des systèmes d’IA génèrent des données dont la sensibilité est souvent sous-estimée par les développeurs.

Sécurité technique des systèmes

Fiani et al. (2023) décrivent leur architecture technique : une application web utilisant une base de données SQL, des moniteurs et des webcams, avec des données protégées par des codes générés aléatoirement. Si cette approche constitue un pas vers la pseudonymisation, elle demeure insuffisante face aux normes contemporaines de cybersécurité en santé (chiffrement de bout en bout, audits de sécurité, certifications). Kelly et al. (2019) rappellent que la mise en œuvre clinique de l’IA nécessite une infrastructure de sécurité proportionnée à la sensibilité des données traitées. En France, l’hébergement de données de santé est soumis à certification HDS (Hébergeur de Données de Santé), une exigence que la plupart des applications EMDR disponibles sur les stores ne satisfont pas.

Impact sur la relation thérapeutique

La collecte de données biométriques peut elle-même affecter la qualité de la relation thérapeutique. Hase et al. (2025), dans leur enquête auprès de praticiens EMDR, documentent l’importance de la relation thérapeutique comme facteur d’efficacité du traitement. Hipgrave et al. (2025) rapportent que les cliniciens considèrent la qualité relationnelle comme irremplaçable par l’IA actuelle. Le sentiment d’être observé par un système technique — suivi du regard, enregistrement vidéo, mesures physiologiques — pourrait interférer avec la sécurité relationnelle nécessaire au traitement du traumatisme, une dimension théorisée par Porges (2021) dans le cadre de la théorie polyvagale.

Pratiques éthiques dans les études existantes : un écart significatif

La comparaison des pratiques éthiques entre les études publiées révèle des écarts considérables. L’étude de Fiani et al. (2023) opère dans un cadre structuré : consentement éclairé obtenu de tous les sujets, données anonymisées par codes générés aléatoirement, approbation par un comité d’éthique, respect de la Déclaration d’Helsinki. Le modèle d’EMDR à distance de Russo et al. (2024), intégré dans un cadre de soins existant, maintient également des standards élevés en garantissant la présence constante du thérapeute et la possibilité pour le patient d’interrompre la séance à tout moment.

À l’inverse, Waterman et Cooper (2020) constatent que les applications EMDR auto-administrées disponibles dans le commerce n’abordent généralement ni la question du consentement éclairé ni celle de la protection des données. Xian et al. (2024), dans leur scoping review sur l’IA générative en santé mentale, confirment que le fossé entre les pratiques de recherche (encadrées éthiquement) et les applications commerciales (largement non régulées) constitue l’une des préoccupations majeures du champ.

Recommandations pour les cliniciens

 À partir de la synthèse de la littérature et des cadres réglementaires, sept recommandations pratiques se dégagent pour les professionnels souhaitant intégrer des outils EMDR numériques dans leur pratique.

1. Évaluer la politique de données de chaque plateforme. 

Avant d’utiliser un outil numérique, le clinicien devrait vérifier la politique de confidentialité du fournisseur : quelles données sont collectées, où sont-elles stockées, qui y a accès, sont-elles utilisées pour l’entraînement algorithmique, et sont-elles supprimées après la fin du traitement ? (Mennella et al., 2024 ; Fiske et al., 2018).

2. Obtenir un consentement éclairé spécifique et adapté. 

Le consentement doit dépasser le formulaire standard et expliciter la nature des données biométriques collectées, les finalités de leur traitement, et les droits du patient (accès, rectification, effacement). Pour les patients vulnérables — TSPT sévère, comorbidités dissociatives, barrières linguistiques — des adaptations du processus de consentement sont nécessaires (Parchmann et al., 2024 ; APA, 2024-2025).

3. Privilégier les modèles avec supervision clinique. 

Les données convergent pour indiquer que les modèles où le thérapeute reste activement impliqué offrent un meilleur cadre de protection. Le clinicien demeure le garant de l’usage proportionné des outils et de la gestion des données sensibles. L’EU AI Act (article 14) confirme cette exigence en imposant une supervision humaine pour les systèmes d’IA à haut risque (Russo et al., 2024 ; Fiani et al., 2023).

4. Appliquer le principe de minimisation des données. 

Ne collecter que les données strictement nécessaires à l’objectif clinique. Si le suivi oculaire n’est pas indispensable pour un patient donné, ne pas l’activer. Si l’enregistrement vidéo n’est pas nécessaire, privilégier un flux audio seul ou la supervision en direct sans enregistrement. Ce principe est au cœur du RGPD (article 5) et des directives APA.

5. Vérifier la conformité réglementaire de la plateforme. 

Les plateformes utilisées devraient être conformes au RGPD, disposer d’un hébergement de données de santé certifié (en France : certification HDS), et idéalement faire l’objet d’un enregistrement en tant que dispositif médical ou d’une conformité à l’EU AI Act pour les systèmes à haut risque (Fiske et al., 2018 ; Mennella et al., 2024).

6. Sensibiliser les patients de manière compréhensible. 

Informer les patients sur les données collectées sans jargon technique. Fiske et al. (2018) insistent sur le fait que les patients risquent de percevoir un agent IA comme un clinicien humain : la transparence sur la nature du système et sur le traitement des données est une obligation éthique. L’EU AI Act (article 52) rend cette transparence juridiquement contraignante.

7. Maintenir ses compétences cliniques propres. 

L’APA (2024-2025) et les travaux sur la métacognition (Fan et al., 2024 ; Tankelevitch et al., 2024) alertent sur le risque de « paresse métacognitive » : le clinicien ne doit pas déléguer à l’IA l’évaluation clinique, le jugement sur la stabilisation du patient ou l’adaptation du protocole. L’outil numérique est un assistant, pas un décideur.

Lacunes de la recherche 

La littérature actuelle présente des lacunes importantes sur ce sujet. La revue élargie réalisée via Consensus (2026), portant sur 50 articles inclus, identifie des « gaps » significatifs à l’intersection de plusieurs domaines : il n’existe aucune étude empirique croisant l’utilisation de chatbots EMDR autonomes et l’analyse des événements indésirables ; aucune étude évaluant spécifiquement l’impact des pratiques de collecte de données sur la relation thérapeutique ; et aucune analyse de l’optimisation par apprentissage automatique sous l’angle de la vie privée.

Van Schie et Van Veen (2025) qualifient l’étude des effets indésirables de l’EMDR (y compris dans ses déclinaisons numériques) de domaine « négligé mais urgent ». Moore et al. (2025) montrent que même les LLM les plus avancés produisent des réponses éthiquement problématiques dans un contexte de santé mentale, mais aucune étude n’a encore spécifiquement examiné ces risques dans le contexte EMDR.

Des recherches futures devraient porter sur : (1) l’évaluation de protocoles de consentement adaptés aux outils numériques d’EMDR ; (2) l’analyse des pratiques réelles de collecte et de réutilisation des données par les plateformes commerciales ; (3) l’impact de la surveillance biométrique sur le sentiment de sécurité relationnelle du patient ; (4) le développement de cadres réglementaires spécifiques pour les applications de psychothérapie numérique ; et (5) l’évaluation des biais algorithmiques dans les systèmes d’EMDR numérique.

Conclusion  

L’EMDR numérique assisté par IA représente une évolution porteuse pour l’accessibilité des soins en psychotraumatisme, mais elle s’accompagne d’une collecte de données biométriques d’une sensibilité sans précédent en psychothérapie. Les données de suivi oculaire, les enregistrements vidéo et audio de séances de retraitement traumatique, et les mesures physiologiques constituent un profil intime du patient qui appelle des protections juridiques, techniques et éthiques proportionnées.

Le cadre réglementaire européen se structure progressivement : le RGPD fournit un socle de protection des données personnelles, tandis que l’EU AI Act (2024) introduit des obligations spécifiques pour les systèmes d’IA à haut risque en santé, notamment en matière de transparence, de supervision humaine et de gestion des risques. Les directives de l’APA (2024-2025) et de l’OMS complètent ce cadre d’une dimension professionnelle et de santé publique.

La littérature scientifique convergente — de Fiske et al. (2018) à Mennella et al. (2024), en passant par Russo et al. (2024), Moore et al. (2025) et Van Schie et Van Veen (2025) — soutient un modèle où l’IA est un outil au service du clinicien, et non un substitut. Dans cette logique, le thérapeute demeure le garant non seulement de la qualité clinique, mais aussi de la protection des données de son patient.

Pour les professionnels de santé, se former à ces enjeux n’est plus une option : c’est une nécessité éthique et clinique. Comprendre les données collectées, connaître les cadres juridiques (RGPD, EU AI Act), savoir évaluer une plateforme, adapter son consentement éclairé et maintenir ses compétences métacognitives face à la délégation technologique font désormais partie des compétences indispensables du clinicien formé à l’EMDR.

En savoir plus 

L’intelligence artificielle en santé mentale est un champ en transformation constante : de nouvelles études, réglementations et technologies émergent chaque mois. Cet article constitue un point de repère solide à la date de sa publication, mais la meilleure protection pour vos patients reste votre engagement dans une veille scientifique et une formation continue. 

Références citées dans l’article 

  • American Psychological Association (2024–2025). Ethical guidance on artificial intelligence in professional psychological practice. https://www.apa.org/topics/artificial-intelligence-machine-learning/ethical-guidance-ai-professional-practice
  • Carletto, S., Malandrone, F., Berchialla, P., Oliva, F., Colombi, N., Hase, M., Hofmann, A., & Ostacoli, L. (2021). Eye movement desensitization and reprocessing for depression: a systematic review and meta-analysis. European Journal of Psychotraumatology, 12. https://doi.org/10.1080/20008198.2021.1894736
  • EU AI Act — Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées en matière d’intelligence artificielle. Journal officiel de l’Union européenne.
  • Fan, Y., et al. (2024). Beware of metacognitive laziness: Effects of generative artificial intelligence on learning motivation, processes, and performance.
  • Fiani, F., Russo, S., & Napoli, C. (2023). An Advanced Solution Based on Machine Learning for Remote EMDR Therapy. Technologies.
  • Fiske, A., Henningsen, P., & Buyx, A. (2018). Your Robot Therapist Will See You Now: Ethical Implications of Embodied Artificial Intelligence in Psychiatry, Psychology, and Psychotherapy. Journal of Medical Internet Research, 21. https://doi.org/10.2196/13216
  • Goga, N., Boiangiu, C., Vasilățeanu, A., et al. (2022). An Efficient System for Eye Movement Desensitization and Reprocessing (EMDR) Therapy: A Pilot Study. Healthcare, 10. https://doi.org/10.3390/healthcare10010133
  • Grabb, D., Lamparth, J., & Vasan, A. (2024). Character.AI and the Challenge of Chatbot Psychosis. arXiv preprint. https://arxiv.org/abs/2507.19218
  • Hase, M., Brisch, K., Solomon, R., & Hase, A. (2025). The therapeutic relationship in EMDR therapy—A survey. Frontiers in Psychology, 16. https://doi.org/10.3389/fpsyg.2025.1519665
  • Hipgrave, L., Goldie, J., Dennis, S., & Coleman, A. (2025). Balancing risks and benefits: Clinicians’ perspectives on the use of generative AI chatbots in mental healthcare. Frontiers in Digital Health, 7. https://doi.org/10.3389/fdgth.2025.1606291
  • Kelly, C., Karthikesalingam, A., Suleyman, M., Corrado, G., & King, D. (2019). Key challenges for delivering clinical impact with artificial intelligence. BMC Medicine, 17. https://doi.org/10.1186/s12916-019-1426-2
  • Li, H., Zhang, R., Lee, Y., Kraut, R., & Mohr, D. (2023). Systematic review and meta-analysis of AI-based conversational agents for promoting mental health and well-being. NPJ Digital Medicine, 6. https://doi.org/10.1038/s41746-023-00979-5
  • Maçorano, R., Canais, F., Pereira, B., et al. (2021). Eye movement desensitization and reprocessing: Exploratory validation study of the potential of a biofeedback digitized approach for burnout therapy optimization. European Psychiatry, 64, S111. https://doi.org/10.1192/j.eurpsy.2021.319
  • Mennella, C., Maniscalco, U., De Pietro, G., & Esposito, M. (2024). Ethical and regulatory challenges of AI technologies in healthcare: A narrative review. Heliyon, 10. https://doi.org/10.1016/j.heliyon.2024.e26297
  • Moore, J., Grabb, D., Agnew, W., et al. (2025). Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers. Proceedings of the ACM Conference on Fairness, Accountability, and Transparency. https://doi.org/10.1145/3715275.3732039
  • Organisation mondiale de la santé (2021, 2024). Ethics and governance of artificial intelligence for health. WHO Publications.
  • Parchmann, N., Hansen, D., Orzechowski, M., & Steger, F. (2024). An ethical assessment of professional opinions on concerns, chances, and limitations of the implementation of an AI-based technology into geriatric patient treatment and continuity of care. GeroScience, 46, 6269–6282. https://doi.org/10.1007/s11357-024-01229-6
  • Porges, S. W. (2021). Polyvagal Safety: Attachment, Communication, and Self-Regulation. W. W. Norton & Company.
  • RGPD — Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel.
  • Russo, S., Fiani, F., & Napoli, C. (2024). Remote Eye Movement Desensitization and Reprocessing Treatment of Long-COVID- and Post-COVID-Related Traumatic Disorders: An Innovative Approach. Brain Sciences, 14. https://doi.org/10.3390/brainsci14121212
  • Suh, J., Chang, S., & Park, H. (2025). Optimization of Video Stimuli Parameters in EMDR Therapy Using Artificial Neural Networks for Enhanced Treatment Efficacy. Applied Sciences. https://doi.org/10.3390/app15020934
  • Tankelevitch, L., et al. (2024). The metacognitive demands and opportunities of generative AI. Proceedings of the CHI Conference on Human Factors in Computing Systems (CHI 2024).
  • Van Schie, K., & Van Veen, S. (2025). Adverse effects of Eye Movement Desensitization and Reprocessing therapy: A neglected but urgent area of inquiry. Current Opinion in Psychology, 67, 102155. https://doi.org/10.1016/j.copsyc.2025.102155
  • Wang, X., Zhou, Y., & Zhou, G. (2025). The application and ethical implication of generative AI in mental health: Systematic review. JMIR Mental Health, 12, e70610. https://doi.org/10.2196/70610
  • Waterman, L. Z., & Cooper, M. (2020). Self-Administered EMDR Therapy: Potential Solution for Expanding the Availability of Psychotherapy for PTSD or Unregulated Recipe for Disaster? BJPsych Open.
  • Xian, X., Chang, A., Xiang, Y.-T., & Liu, M. T. (2024). Debate and dilemmas regarding generative AI in mental health care: Scoping review. Interactive Journal of Medical Research, 13(1), e53672. https://doi.org/10.2196/53672
  • Yuan, Z., Cheng, X., & Duan, Y. (2024). Impact of media dependence: How emotional interactions between users and chat robots affect human socialization? Frontiers in Psychology, 15, 1388860. https://doi.org/10.3389/fpsyg.2024.1388860

Aller plus loin 

Formation(s) : L’usage des intelligences artificielles par les patients : enjeux cliniques, éthiques et thérapeutiques et  Cadre juridique et éthique pour la pratique clinique et l’exercice professionnel 

M’inscrire Vous avez une question ?