
L’IA dans le cabinet du thérapeute : ce qui est permis, ce qui ne l’est pas
Mis à jour le 21 avril 2026
Au-delà de l’usage que les patients font de l’IA, une autre question se pose : les praticiens de santé mentale utilisent-ils eux-mêmes l’intelligence artificielle dans leur exercice ? Et si oui, qu’ont-ils le droit de faire ? Cet article présente les usages documentés, le cadre juridique applicable en France et en Europe, et les risques spécifiques identifiés.
Avertissement. L’intelligence artificielle en santé mentale est un champ en transformation constante : de nouvelles études, réglementations et technologies émergent chaque mois. Cet article constitue un point de repère solide à la date de sa publication, mais la meilleure protection pour vos patients reste votre engagement dans une veille scientifique et une formation continue.
Les usages documentés par les praticiens
L’utilisation de l’IA par les professionnels de santé mentale se développe principalement dans trois domaines : la rédaction assistée (comptes rendus de séances, courriers aux confrères, rapports d’expertise), la recherche documentaire (synthèses de littérature, état de l’art sur une approche thérapeutique), et la formation continue (compréhension de concepts, préparation de supervisions).
Des outils de transcription automatisée (dits « scribes ambiants ») se développent également dans le secteur médical. Ces systèmes enregistrent la conversation entre le praticien et le patient, puis génèrent automatiquement une note clinique structurée. Leur usage en santé mentale soulève des questions spécifiques liées à la sensibilité particulière des données échangées en séance de psychothérapie.
Le cas de l’Illinois : premier cadre législatif spécifique
Le 1er août 2025, l’État de l’Illinois (USA) a adopté le Wellness and Oversight for Psychological Resources Act (WOPR Act, HB 1806), voté à l’unanimité par les deux chambres du Parlement et d’application immédiate. Il s’agit de la première loi au monde réglementant spécifiquement l’usage de l’IA par les professionnels agréés exerçant la thérapie.
La loi interdit à toute personne, entreprise ou entité de fournir des services de thérapie ou de psychothérapie par le biais d’une IA sur Internet, à moins que ces services ne soient délivrés par un professionnel agréé. Les professionnels agréés couverts par la loi comprennent : les psychologues cliniciens, les travailleurs sociaux cliniques, les conseillers professionnels, les thérapeutes conjugaux et familiaux, les thérapeutes par la musique et les infirmiers psychiatriques de pratique avancée.
La loi interdit aux professionnels agréés de permettre à un système d’IA de : prendre des décisions thérapeutiques de manière autonome ; interagir directement avec les clients dans toute forme de communication thérapeutique ; générer des recommandations thérapeutiques ou des plans de traitement sans examen et approbation par le professionnel ; détecter les émotions ou les états mentaux des clients.
La loi autorise cependant deux catégories d’usages. Les usages « administratifs » : gestion des rendez-vous, facturation, traitement des réclamations d’assurance, rédaction de communications générales liées à la logistique de la thérapie (ne contenant pas de conseil thérapeutique). Les usages « supplémentaires » : préparation et tenue de notes et de dossiers, analyse de données anonymisées, identification de ressources externes ou d’orientations pour le client. Pour les usages supplémentaires, le consentement écrit et éclairé du patient est obligatoire.
Les violations sont passibles de sanctions civiles pouvant atteindre 10 000 dollars par infraction. L’American Psychological Association (APA) a soutenu cette législation. D’autres États ont suivi : l’Utah (mars 2025) impose la divulgation de la nature IA des chatbots de santé mentale ; le Nevada (juin 2025) interdit aux systèmes d’IA de prétendre fournir des soins de santé mentale professionnels.
Le cadre européen : RGPD et AI Act
En Europe, l’usage de l’IA par un praticien de santé mentale est encadré par deux textes principaux. Le Règlement Général sur la Protection des Données (RGPD, 2016/679) classe les données de santé comme « données sensibles » dont le traitement est interdit sauf exceptions strictement encadrées (article 9). L’AI Act (Règlement (UE) 2024/1689) impose depuis le 2 février 2025 une obligation de littératie IA aux organisations qui déploient des systèmes d’IA.
Le RGPD impose au professionnel de santé, en tant que responsable de traitement, plusieurs obligations : tenir un registre des activités de traitement, informer le patient du traitement de ses données, garantir la sécurité des données, et être en mesure de prouver sa conformité en cas de contrôle de la CNIL. Le guide de la sécurité des données personnelles de la CNIL, mis à jour en 2024, intègre désormais des questions spécifiques à l’IA, aux applications mobiles et au cloud.
Le problème concret de la confidentialité
Lorsqu’un praticien saisit le contenu d’une séance de psychothérapie dans un chatbot généraliste (ChatGPT, Claude, Gemini) pour obtenir de l’aide à la rédaction, il transmet des données de santé au sens du RGPD à un sous-traitant étranger. Plusieurs questions juridiques se posent immédiatement : la base légale du traitement (le consentement explicite du patient a-t-il été recueilli ?), la localisation des données (hébergement aux États-Unis ou en Europe ?), la durée de conservation, et le risque que ces données soient utilisées pour l’entraînement des modèles d’IA.
OpenAI distingue trois niveaux d’offre. La version gratuite de ChatGPT n’offre pas de garanties RGPD adaptées à un usage professionnel avec des données de santé. La version Business (depuis septembre 2024) propose des garanties renforcées. La version Enterprise garantit que les conversations ne sont pas utilisées pour entraîner les modèles et permet un hébergement des données en Europe depuis décembre 2024. Le Data Processing Addendum (DPA) d’OpenAI a été mis à jour le 1er décembre 2025.
La CNIL a publié en octobre 2023 ses premières recommandations pour un usage de l’IA conforme au RGPD. Elle rappelle que l’article 22 du RGPD interdit la prise de décision automatisée lorsqu’elle a des conséquences juridiques ou affectant significativement une personne, sauf exceptions encadrées. La CNIL souligne également que les chatbots, en proposant un mode d’écriture libre, peuvent être amenés à traiter des données sensibles fournies spontanément par l’utilisateur, sans que le responsable de traitement ne l’ait anticipé.
Les positions déontologiques françaises
Le Livre blanc du CNOM (janvier 2018) avait déjà posé le principe d’une IA comme aide à la décision et non comme décideur (recommandation n°10). Il avait insisté sur le maintien du secret médical dans le traitement des données massives (recommandation n°24) et sur la nécessité de former les médecins pour le monde dans lequel ils exerceront.
Le code de déontologie des psychologues, dans sa version actualisée de 2021, établit le principe du secret professionnel (article 7) et le respect de la vie privée du patient (article 16). Si un psychologue saisit des éléments cliniques dans un chatbot, même à des fins de rédaction de notes, la question de la préservation du secret professionnel se pose directement.
La question des « hallucinations » de l’IA
Les modèles de langage produisent régulièrement des informations factuellement fausses présentées avec un haut degré de confiance. Ce phénomène, appelé « hallucination » dans le jargon technique, présente un risque spécifique dans le contexte clinique. Un praticien qui utiliserait une IA pour l’aider à formuler une hypothèse diagnostique, à identifier des références bibliographiques ou à proposer un plan de traitement pourrait intégrer des informations erronées dans sa pratique sans les détecter, particulièrement s’il est sujet au biais d’automatisation (automation bias) décrit par l’OMS.
Ce qui est autorisé, ce qui ne l’est pas : synthèse
En l’état actuel du droit français et européen, aucune loi n’interdit spécifiquement à un praticien d’utiliser un chatbot dans son exercice. Toutefois, les obligations existantes délimitent un périmètre clair.
Ce qui est possible sous conditions : utiliser l’IA pour des tâches administratives (facturation, planification, courriers logistiques) ; utiliser l’IA pour de la recherche documentaire générale (sans saisir de données de patients) ; utiliser l’IA pour de la formation continue (compréhension de concepts, préparation de cas cliniques fictifs).
Ce qui nécessite un consentement explicite du patient et des garanties techniques : l’usage d’un scribe ambient en séance (transcription automatisée) ; la rédaction assistée de notes cliniques contenant des données de santé identifiantes (dans ce cas, le choix de l’outil — hébergement, politique de données, conformité RGPD — est déterminant).
Ce qui pose un problème juridique et déontologique : saisir le contenu d’une séance dans une version gratuite d’un chatbot sans consentement du patient ; laisser une IA générer un plan de traitement ou une recommandation thérapeutique sans relecture et validation complète par le praticien ; utiliser l’IA pour « détecter » les émotions ou les états mentaux d’un patient à partir de transcriptions (interdit par le WOPR Act en Illinois, et potentiellement concerné par l’interdiction de reconnaissance émotionnelle dans le contexte professionnel prévue par l’AI Act, même si une exemption médicale existe).
À retenir pour la pratique clinique
Avant de saisir toute donnée clinique dans un outil d’IA, vérifier : la base légale du traitement, le lieu d’hébergement des données, la politique de conservation, et l’absence d’utilisation pour l’entraînement des modèles. En cas de doute, ne pas saisir de données identifiantes.
Pour la rédaction assistée de notes cliniques : l’anonymisation préalable des données (remplacement du nom, des dates, des lieux identifiants) réduit significativement le risque. Mais elle ne supprime pas la question de la base légale du traitement.
Le WOPR Act de l’Illinois, bien que non applicable en France, préfigure une tendance réglementaire mondiale. Sa distinction entre usages administratifs (autorisés), usages supplémentaires (soumis à consentement) et usages thérapeutiques (interdits à l’IA) fournit un cadre de réflexion utile.
Le risque d’hallucination de l’IA impose une relecture complète et critique de tout contenu généré. Cela s’applique particulièrement aux références bibliographiques, aux hypothèses diagnostiques et aux recommandations de traitement.
Informer le patient de l’usage de l’IA dans le cadre de la prise en charge, même pour des usages administratifs, s’inscrit dans le principe de transparence du RGPD et dans l’obligation déontologique d’information.
Législation de référence : RGPD (2016/679), AI Act (2024/1689), WOPR Act Illinois (HB 1806, 1er août 2025). CNIL : Guide de la sécurité des données personnelles (2024) ; Recommandations chatbots (octobre 2023).
En savoir plus
L’intelligence artificielle en santé mentale est un champ en transformation constante : de nouvelles études, réglementations et technologies émergent chaque mois. Cet article constitue un point de repère solide à la date de sa publication, mais la meilleure protection pour vos patients reste votre engagement dans une veille scientifique et une formation continue.
Sources
- WOPR Act — Wellness and Oversight for Psychological Resources Act, Illinois HB 1806, signé le 1er août 2025. Texte : ilga.gov.
- IDFPR Illinois — Communiqué : « Gov Pritzker Signs Legislation Prohibiting AI Therapy in Illinois », 4 août 2025.
- Holland & Knight — « New Illinois Law Restricts Use of AI in Mental Health Therapy », août 2025.
- APA (American Psychological Association) — « Protecting the public from unlicensed therapy », 28 août 2025.
- RGPD — Règlement (UE) 2016/679, articles 9 (données sensibles) et 22 (décision automatisée).
- AI Act — Règlement (UE) 2024/1689, article 4 (littératie IA), article 5.1f (reconnaissance émotionnelle).
- CNIL — Guide de la sécurité des données personnelles, édition 2024.
- CNIL — « Chatbots : les conseils de la CNIL pour respecter les droits des personnes », 2023.
- CNOM — Livre blanc « Médecins et patients dans le monde des data, des algorithmes et de l’intelligence artificielle », janvier 2018.
- MACSF — « RGPD et professionnel de santé libéral : quelles obligations », mars 2025.
- OpenAI — Data Processing Addendum, mis à jour le 1er décembre 2025.
- Code de déontologie des psychologues — Version actualisée 2021, articles 7 et 16.
Aller plus loin
Formation(s) : L’usage des intelligences artificielles par les patients : enjeux cliniques, éthiques et thérapeutiques



