Directives anticipées psychiatriques et IA : un cadre éthique pour l'intégration de l'IA en psychotraumatologie

Directives anticipées psychiatriques et IA : un cadre éthique pour l’intégration de l’IA en psychotraumatologie

Mis à jour le 21 février 2026

Les directives anticipées psychiatriques (DAP) permettent aux patients de formuler leurs préférences de soins pour les situations de crise où leurs capacités décisionnelles sont altérées. 

L’article de Mouchabac, Adrien, Falala-Séchet et al. (2021), publié dans Frontiers in Psychiatry, propose un cadre conceptuel pour l’intégration de l’intelligence artificielle dans le processus de rédaction des DAP.  Ce cadre examine les niveaux d’intervention possibles de l’IA (données accessibles, types de traitement, moments opportuns, place dans la relation contractuelle) et les principes éthiques à respecter — qu’il s’agisse des principes médicaux (autonomie, bienfaisance, non-malfaisance, justice) appliqués à l’IA, ou des principes propres à l’IA (loyauté, vigilance) appliqués à la médecine. 

Le présent article décrit factuellement ce cadre, le situe dans le paysage réglementaire actuel (AI Act européen, recommandations OMS) et en examine la pertinence pour la psychotraumatologie.

Avertissement. L’intelligence artificielle en santé mentale est un champ en transformation constante : de nouvelles études, réglementations et technologies émergent chaque mois. Cet article constitue un point de repère solide à la date de sa publication, mais la meilleure protection pour vos patients reste votre engagement dans une veille scientifique et une formation continue. 

L’intégration de l’intelligence artificielle en psychiatrie soulève des questions éthiques d’une complexité particulière. En santé mentale, les capacités décisionnelles du patient peuvent être transitoirement altérées, les données traitées sont parmi les plus sensibles, et les décisions cliniques — hospitalisation sous contrainte, changement de traitement, gestion de crise — engagent profondément l’autonomie de la personne.

Les directives anticipées psychiatriques (DAP) constituent un cadre juridique conçu précisément pour ces situations : elles permettent au patient, lorsqu’il en a la capacité, de formuler à l’avance ses préférences de soins pour des épisodes futurs de crise. L’introduction de systèmes d’aide à la décision clinique (CDSS) augmentés par l’IA dans ce processus pourrait améliorer la personnalisation des soins et l’anticipation des rechutes. Mais elle soulève des enjeux théoriques et éthiques que la communauté clinique doit examiner avant toute implémentation.

L’article de Mouchabac, Adrien, Falala-Séchet et al. (2021), publié dans Frontiers in Psychiatry, propose un cadre conceptuel structuré pour penser cette intégration. Il s’agit d’une analyse conceptuelle — et non d’une étude empirique — qui examine systématiquement les niveaux d’intervention possibles de l’IA dans le processus de rédaction des DAP et les principes éthiques qui devraient guider cette intégration.

Le présent article décrit factuellement ce cadre, le situe dans le paysage réglementaire actuel, et en examine la pertinence pour le clinicien en psychotraumatologie. Il ne s’agit pas de proposer une application directe de ce cadre à l’EMDR, mais d’identifier les principes éthiques transposables à toute intégration de l’IA dans la pratique psychothérapeutique.

Les directives anticipées psychiatriques : contexte et enjeux  

Les troubles psychiatriques se caractérisent fréquemment par des rechutes au cours desquelles les capacités décisionnelles du patient sont altérées, pouvant conduire à des hospitalisations involontaires. Ces modalités de soins, bien que légalement encadrées, sont décrites dans la littérature comme restrictives, stigmatisantes, et prédictives d’un moins bon rétablissement avec davantage d’idéation suicidaire à deux ans (Xu et al., 2018, 2019 ; Rüsch et al., 2014).

Les DAP offrent au patient le droit de formuler à l’avance un cadre de traitement : informations sur les traitements médicamenteux, instructions non médicales, et désignation d’une personne de confiance habilitée à prendre des décisions en son nom. Pour être valides, le patient doit disposer de la « capacité mentale » — définie comme l’aptitude à prendre une décision, comprendre et analyser les informations relatives à ses soins, et connaître les options alternatives existantes (Nowland et al., 2019).

Quatre types de DAP

La revue de Nicaise, Lorant et Dubois (2013), reprise par Mouchabac et al. (2021), distingue quatre types de DAP selon leur contenu, leur mode de rédaction et leur autorité juridique.

Les DAP classiques sont rédigées par le patient seul, sans intervention des soignants. Elles décrivent les valeurs personnelles, les préférences de traitement, le consentement aux interventions thérapeutiques et désignent un mandataire.

Les DAP simplifiées impliquent l’aide de soignants formés pour créer le document final, en utilisant par exemple un entretien semi-structuré pour sélectionner les préférences à partir d’un ensemble d’options disponibles.

Les DAP basées sur la thérapie cognitive sont élaborées avec un membre de l’équipe soignante à partir d’événements de crises passées, en proposant des alternatives pour les épisodes futurs (Khazaal et al., 2009). Les désaccords entre patient et soignant sont reconnus et respectés.

Le plan conjoint de crise (Joint Crisis Plan) implique le patient et l’équipe de soins dans un processus de négociation avec un tiers facilitateur — travailleur social, membre de la famille, personne de confiance, curateur ou avocat.

Bénéfices documentés

La littérature rapporte plusieurs bénéfices associés aux DAP : amélioration de l’autonomie et de l’empowerment des patients (Linhorst et al., 2002) ; renforcement de l’alliance thérapeutique et de la confiance entre patient et équipe soignante (Abettan, 2017 ; Farrelly et al., 2015) ; réduction des interventions coercitives — dans un ratio de 50 % sur un suivi de 24 mois (Swanson et al., 2008) ; diminution du vécu traumatique lié aux traitements imposés en urgence (Campbell & Kisely, 2009). En outre, les DAP permettent l’identification des prodromes de rechute et la proposition d’interventions personnalisées précoces.

Malgré ces bénéfices, des obstacles persistent : contraintes du système de santé, pratiques des professionnels, représentations des usagers (Shields et al., 2014 ; Easter et al., 2017). C’est dans ce contexte que les auteurs proposent l’IA comme levier potentiel pour faciliter et améliorer le processus de rédaction des DAP.

Le cadre conceptuel de Mouchabac, Falala-Séchet et al. (2021)  

L’article publié dans Frontiers in Psychiatry propose une analyse structurée en deux axes : les niveaux d’intervention possibles de l’IA dans le processus de rédaction des DAP, et les principes éthiques que cette intervention devrait respecter. Nous décrivons ci-dessous le contenu de chaque axe tel que présenté par les auteurs.

Niveaux d’intervention de l’IA

Les auteurs organisent les niveaux d’intervention selon quatre dimensions, résumées par les questions « quoi », « comment », « quand » et « qui ».

« Quoi » — Les sources de données

L’IA pourrait accéder à des données de niveaux différents : sources publiques (recherche en ligne, état civil), semi-publiques (réseaux sociaux, données médicales) et privées (messagerie, historique de navigation). En psychiatrie, les informations utiles sont souvent de nature privée. Les auteurs soulignent que le patient doit donner un consentement libre et éclairé sur les données utilisées, pouvoir choisir quels symptômes seront monitorés par l’IA, et exercer un droit de retrait. Le concept de « phénotypage numérique » (Jain et al., 2015) — collecte en temps réel de données comportementales — est identifié comme particulièrement pertinent pour alimenter les systèmes d’aide à la décision.

« Comment » — Les types de traitement. 

Comme la conscience humaine, les processus cognitifs de l’IA peuvent être décomposés. Le patient devrait pouvoir choisir quels processus spécifiques il autorise, suivant la recommandation de Villani et al. (2018) de préserver certaines compétences humaines aux humains. En pratique, le degré de confiance de chaque participant (patient, professionnel, tiers) dans les nouvelles technologies influence la place accordée à l’IA. Le professionnel a un rôle majeur dans la présentation des outils, la compréhension du patient, et l’identification du ratio acceptable entre expertise humaine et non humaine.

« Quand » — Les moments opportuns. 

Les auteurs identifient trois temps d’intervention : au moment de la rédaction (l’IA pourrait proposer un modèle de DAP fondé sur le deep learning) ; en optimisation en temps réel (ajustement des directives lorsque les circonstances changent, par incrémentation à partir des expériences d’autres patients) ; et au moment d’une décision médicale difficile (données contradictoires, décalage entre les souhaits du patient et les options thérapeutiques disponibles). Les auteurs notent que l’IA crée un décalage supplémentaire entre la préférence réelle du patient et la préférence inférée — un risque d’erreur auto-entretenue si l’IA influence la décision clinique elle-même.

« Qui » — La place dans la relation contractuelle. 

Les DAP peuvent être vues comme un contrat tripartite entre le patient, l’équipe soignante et un tiers (famille, personne de confiance). Les auteurs examinent trois positions possibles pour l’IA : en substitution d’une des parties (option jugée non éthique) ; en tant que quatrième partie (soulevant la question de la « personnalité électronique », débattue au Parlement européen) ; ou en partenaire de chaque partie — c’est-à-dire un système d’aide à la décision pour le patient et le tiers, et un CDSS pour le clinicien. Cette troisième option est recommandée par les auteurs.

Principes éthiques médicaux appliqués à l’IA

Les auteurs analysent les quatre principes de l’éthique médicale (Jahn, 2011) dans le contexte de l’IA en psychiatrie.

Autonomie

L’introduction de l’IA affecte potentiellement le libre arbitre (l’IA pourrait favoriser une partie en cas de désaccord), la liberté d’action (par définition affectée par l’irruption d’une entité intelligente artificielle), et les capacités de compréhension (nécessité de simplifier les algorithmes pour que le patient puisse comprendre leur fonctionnement — au risque d’une perte de précision). Les auteurs insistent sur le besoin de programmes d’éducation thérapeutique incluant l’IA, spécifiquement adaptés à la population psychiatrique. Sur la question de la dignité, ils relèvent que l’IA soulève le problème de l’intégration des données « tacites » du clinicien (heuristiques difficiles à objectiver) et celui de la confidentialité : les données de deep learning, même anonymisées, restent traçables par croisement.

Bienfaisance

Le bénéfice de l’IA pour le patient doit être mesuré par des indicateurs objectifs et spécifiques — par exemple le degré d’adéquation a posteriori entre les souhaits du patient et le traitement reçu en période de crise. Les auteurs signalent le risque que l’IA transforme le bien-être en impératif moral, un effet documenté dans d’autres domaines sociétaux (Cederström & Spicer, 2015), potentiellement amplifié chez les patients psychiatriques.

Non-malfaisance

L’IA peut être malfaisante à chaque niveau du processus de rédaction des DAP. Les auteurs recommandent un inventaire exhaustif de toutes les défaillances possibles, mis à jour au fil de l’utilisation.

Justice

L’égalité des soins (non-discrimination) et l’adaptation individuelle (discrimination positive) sont potentiellement menacées si l’IA priorise la participation sociétale du patient, marginalisant davantage les patients psychiatriques, déjà sous-traités sur le plan somatique.

Principes éthiques de l’IA appliqués à la médecine

Les auteurs mobilisent deux principes issus du rapport 2017 de la Commission nationale de l’informatique et des libertés (CNIL).

Loyauté

Ce principe condense plusieurs exigences : neutralité (traiter toutes les informations également), diversité (ne pas prioriser une réponse), transparence (rendre le code accessible — insuffisant si les patients ne sont pas formés à le comprendre), équité (ne pas différencier les sujets), loyauté stricte (répondre à ce qui est demandé), et compréhensibilité — qui passe par la simplification des modèles, la simplification des interfaces, et l’éducation sur les mécanismes cognitifs en jeu. Les auteurs alertent sur le risque de « fracture numérique » particulièrement élevé avec la population psychiatrique.

Vigilance

Ce principe (aussi nommé réflexivité ou auditabilité) vise à couvrir les risques inhérents aux technologies nouvelles. Il implique la création de comités de surveillance, recrutés sur signalement, litige ou audit automatique, ouverts aux patients et usagers du système de santé. La vigilance ne se limite pas à l’identification des défaillances technologiques : des audits globaux doivent évaluer l’impact des systèmes d’IA sur la santé physique et mentale des patients, y compris en l’absence de défaillance technique.

Recommandations des auteurs

Le cadre conceptuel débouche sur quatre recommandations structurantes :

PrincipeContenu
SupportL’IA doit rester un système d’aide à la décision, partenaire des parties du contrat de DAP. Elle doit toujours être soumise à la validation d’un professionnel. Un système de probabilité devrait pondérer les options de traitement et les données écologiques.
ChoixLe patient doit pouvoir choisir s’il souhaite utiliser l’IA, quel type d’IA, et à quelle étape du processus. Il doit pouvoir consentir spécifiquement pour chaque type de donnée collectée et chaque usage.
InformationUn travail d’éducation et d’information sur le fonctionnement et la pertinence des systèmes intelligents est nécessaire, avec des outils adaptés (MOOC, groupes de travail, serious games). Le niveau de compréhension et d’acceptabilité doit être évalué par des études expérimentales. Des dispositions renforcées s’appliquent aux personnes vulnérables.
VigilanceCréation d’un comité d’audit évaluant les succès, échecs, la sécurité et la pertinence des outils d’IA. Des systèmes de détection d’erreur et de contrôle ciblé/aléatoire doivent être intégrés. De nouveaux cadres juridiques sont nécessaires pour l’utilisation et la régulation de ces systèmes.

Mise en perspective réglementaire  

Le cadre conceptuel de Mouchabac et al. (2021) a été publié avant l’adoption de plusieurs textes réglementaires majeurs. Il est utile de situer ses recommandations dans le paysage actuel.

Le règlement européen sur l’intelligence artificielle (AI Act, 2024)

Le règlement européen sur l’IA, adopté en 2024, classe les systèmes d’IA en fonction de leur niveau de risque. Les systèmes d’IA utilisés comme dispositifs médicaux ou dans des contextes influençant des décisions relatives à la santé sont classés « à haut risque » (Annexe III). Cela implique des obligations de transparence, de documentation technique, de surveillance post-commercialisation et d’évaluation de la conformité.

Plusieurs éléments du cadre de Mouchabac et al. trouvent un écho direct dans l’AI Act : l’exigence de transparence et de compréhensibilité correspond à l’obligation d’information des utilisateurs ; le principe de vigilance s’aligne avec les exigences de surveillance post-commercialisation ; et la recommandation de comités d’audit anticipe les mécanismes de conformité prévus par le règlement. L’AI Act ne traite pas spécifiquement des DAP, mais le cadre réglementaire qu’il établit pour les systèmes d’IA en santé est directement applicable.

Recommandations de l’OMS sur l’IA en santé

L’OMS a publié en 2021 un rapport sur l’éthique et la gouvernance de l’IA en santé, complété en 2023 par des orientations sur les grands modèles de langage. Six principes directeurs sont identifiés : protection de l’autonomie humaine ; promotion du bien-être et de la sécurité ; transparence, explicabilité et intelligibilité ; responsabilité et obligation de rendre des comptes ; inclusion et équité ; IA réactive et durable.

Ces principes recoupent largement ceux identifiés par Mouchabac et al. : le principe d’autonomie de l’OMS correspond aux développements sur le libre arbitre et la liberté d’action ; le principe de transparence correspond à l’exigence de compréhensibilité ; et le principe d’inclusion correspond aux préoccupations sur la fracture numérique et la justice. La convergence entre un cadre conceptuel issu de la pratique psychiatrique et des recommandations internationales renforce la pertinence des principes identifiés.

Note sur les lignes directrices de l’APA

L’American Psychological Association (APA) a émis en 2023 des recommandations préliminaires sur l’utilisation de l’IA en pratique psychologique, insistant sur la responsabilité du clinicien, le consentement éclairé du patient, et la nécessité de comprendre les limites des outils utilisés. Bien que moins détaillées que l’AI Act ou les recommandations de l’OMS, ces lignes directrices sont cohérentes avec le cadre de Mouchabac et al., notamment sur la primauté de la décision humaine et le devoir d’information.

Pertinence pour la psychotraumatologie et l’EMDR  

Le cadre de Mouchabac et al. (2021) a été conçu pour les DAP en psychiatrie générale. Sa transposition directe à l’EMDR n’est pas proposée par les auteurs et ne serait pas justifiée en l’état. Cependant, plusieurs principes identifiés dans ce cadre présentent une pertinence structurelle pour le clinicien en psychotraumatologie confronté à l’intégration de l’IA dans sa pratique.

La sensibilité des données en psychotraumatologie

Les données traitées en psychotraumatologie — récits traumatiques, réponses de stress, dissociation, événements de vie — sont parmi les plus sensibles en santé mentale. L’analyse de Mouchabac et al. sur les niveaux de données (publiques, semi-publiques, privées) et sur les risques de dé-anonymisation par croisement est directement pertinente. Si des outils d’IA venaient à être intégrés dans le suivi EMDR (applications de stabilisation entre les séances, suivi biométrique), la question du consentement spécifique par type de donnée — posée par le cadre conceptuel — serait incontournable.

L’autonomie du patient en situation de vulnérabilité

La thérapie EMDR s’adresse fréquemment à des patients dont les capacités de régulation émotionnelle sont transitoirement fragilisées. Le cadre de Mouchabac et al. souligne que l’introduction de l’IA affecte la liberté d’action du patient « par définition » et que des programmes d’éducation spécifiques sont nécessaires. Ce constat est transposable : tout outil d’IA intégré à la pratique EMDR devrait être accompagné d’une information explicite sur son fonctionnement et ses limites, adaptée à la situation clinique du patient.

L’IA comme partenaire, non comme substitut

La recommandation centrale du cadre — l’IA doit rester un système d’aide à la décision, partenaire de chaque partie, soumis à la validation du professionnel — est directement applicable au contexte EMDR, où le protocole thérapeutique repose sur le jugement clinique du thérapeute (choix des cibles, gestion de l’abréaction, tissage cognitif). L’IA comme partenaire du clinicien (aide à l’analyse des données de suivi, identification de patterns) est conceptuellement différente de l’IA comme substitut du clinicien.

L’exigence de vigilance institutionnelle

La recommandation de créer des comités de surveillance et d’audit des outils d’IA en psychiatrie interpelle les institutions de formation en psychotraumatologie. Si des outils numériques augmentés par l’IA sont intégrés dans la formation ou la pratique EMDR, un mécanisme de suivi de leur pertinence, de leur sécurité et de leurs effets — positifs ou négatifs — devrait être prévu.

Limites  

Plusieurs limites doivent être explicitement posées. 

Premièrement, l’article de Mouchabac et al. (2021) est une analyse conceptuelle, non une étude empirique. Le cadre proposé n’a pas été testé en pratique. 

Deuxièmement, les DAP elles-mêmes, bien que recommandées, restent sous-utilisées dans la pratique psychiatrique — les obstacles documentés (Shields et al., 2014) n’ont pas été levés par la simple proposition d’un cadre théorique. 

Troisièmement, la transposition à la psychotraumatologie et à l’EMDR est proposée ici à titre de réflexion structurelle et non de recommandation clinique. 

Quatrièmement, le paysage réglementaire évolue rapidement : l’AI Act européen n’a pas encore produit l’ensemble de ses textes d’application, et les recommandations de l’OMS et de l’APA sont susceptibles de mises à jour.

Conclusion 

Le cadre conceptuel proposé par Mouchabac, Adrien, Falala-Séchet et al. (2021) constitue l’une des premières tentatives structurées d’articuler les principes éthiques de la médecine et ceux de l’IA dans le contexte spécifique de la psychiatrie. En examinant systématiquement les niveaux d’intervention possibles de l’IA (données, traitements, temporalité, place dans la relation contractuelle) et en les confrontant aux principes d’autonomie, de bienfaisance, de non-malfaisance, de justice, de loyauté et de vigilance, les auteurs fournissent une grille d’analyse applicable au-delà des seules DAP.

La convergence entre ce cadre et les textes réglementaires adoptés depuis sa publication — AI Act européen (2024), recommandations OMS (2021, 2023), lignes directrices APA (2023) — en renforce la pertinence. Pour le clinicien en psychotraumatologie, les principes identifiés — IA comme partenaire et non comme substitut, consentement spécifique par type de donnée, éducation du patient, vigilance institutionnelle — constituent des repères éthiques pour évaluer tout projet d’intégration de l’IA dans la pratique EMDR.

Le fait que ce cadre ait été co-élaboré par des psychiatres et une psychologue clinicienne praticienne de l’EMDR (Clara Falala-Séchet) lui confère une pertinence supplémentaire pour notre communauté professionnelle.

En savoir plus 

L’intelligence artificielle en santé mentale est un champ en transformation constante : de nouvelles études, réglementations et technologies émergent chaque mois. Cet article constitue un point de repère solide à la date de sa publication, mais la meilleure protection pour vos patients reste votre engagement dans une veille scientifique et une formation continue. 

Références citées dans l’article 

1. Abettan, C. (2017). The « virtue » of advance directives. Éthique & Santé, 14, 42-48.

2. Campbell, L. A., & Kisely, S. R. (2009). Advance treatment directives for people with severe mental illness. Cochrane Database of Systematic Reviews, CD005963.

3. Cederström, C., & Spicer, A. (2015). The Wellness Syndrome. Polity Press.

4. Easter, M. M., Swanson, J. W., Robertson, A. G., Moser, L. L., & Swartz, M. S. (2017). Facilitation of psychiatric advance directives by peers and clinicians on assertive community treatment teams. Psychiatric Services, 68(7), 717-723.

5. Farrelly, S., Lester, H., Rose, D., et al. (2015). Improving therapeutic relationships: joint crisis planning for individuals with psychotic disorders. Qualitative Health Research, 25(12), 1637-1647.

6. Jahn, W. T. (2011). The 4 basic ethical principles that apply to forensic activities are respect for autonomy, beneficence, nonmaleficence, and justice. Journal of Chiropractic Medicine, 10(3), 225-226.

7. Jain, S. H., Powers, B. W., Hawkins, J. B., & Brownstein, J. S. (2015). The digital phenotype. Nature Biotechnology, 33(5), 462-463.

8. Khazaal, Y., Chatton, A., Pasandin, N., Zullino, D., & Preisig, M. (2009). Advance directives based on cognitive therapy: a way to overcome coercion related problems. Patient Education and Counseling, 74(1), 35-38.

9. Linhorst, D. M., Hamilton, G., Young, E., & Eckert, A. (2002). Opportunities and barriers to empowering people with severe mental illness through participation in treatment planning. Social Work, 47(4), 425-434.

10. Mouchabac, S., Adrien, V., Falala-Séchet, C., Bonnot, O., Maatoug, R., Millet, B., Peretti, C.-S., Bourla, A., & Ferreri, F. (2021). Psychiatric Advance Directives and Artificial Intelligence: A Conceptual Framework for Theoretical and Ethical Principles. Frontiers in Psychiatry, 11, 622506. https://doi.org/10.3389/fpsyt.2020.622506

11. Nicaise, P., Lorant, V., & Dubois, V. (2013). Psychiatric Advance Directives as a complex and multistage intervention: a realist systematic review. Health & Social Care in the Community, 21(1), 1-14.

12. Organisation mondiale de la santé. (2021). Ethics and Governance of Artificial Intelligence for Health. WHO Guidance.

13. Organisation mondiale de la santé. (2023). Ethics and Governance of Artificial Intelligence for Health: Guidance on Large Multi-Modal Models. WHO.

14. Parlement européen & Conseil de l’Union européenne. (2024). Règlement (UE) 2024/1689 établissant des règles harmonisées concernant l’intelligence artificielle (AI Act).

15. Rüsch, N., Müller, M., Lay, B., et al. (2014). Emotional reactions to involuntary psychiatric hospitalization and stigma-related stress among people with mental illness. European Archives of Psychiatry and Clinical Neuroscience, 264, 35-43.

16. Shields, L. S., Pathare, S., van der Ham, A. J., & Bunders, J. (2014). A review of barriers to using psychiatric advance directives in clinical practice. Administration and Policy in Mental Health, 41, 753-766.

17. Swanson, J. W., Swartz, M. S., Elbogen, E. B., et al. (2008). Psychiatric advance directives and reduction of coercive crisis interventions. Journal of Mental Health, 17(3), 255-267.

18. Villani, C., Schoenauer, M., Bonnet, Y., et al. (2018). For a Meaningful Artificial Intelligence: Towards a French and European Strategy. Conseil national du numérique, Paris.

19. Xu, Z., Lay, B., Oexle, N., et al. (2019). Involuntary psychiatric hospitalisation, stigma stress and recovery: a 2-year study. Epidemiology and Psychiatric Sciences, 28, 458-465.

20. Xu, Z., Müller, M., Lay, B., et al. (2018). Involuntary hospitalization, stigma stress and suicidality: a longitudinal study. Social Psychiatry and Psychiatric Epidemiology, 53, 309-312.

Aller plus loin 

Formation(s) : L’usage des intelligences artificielles par les patients : enjeux cliniques, éthiques et thérapeutiques 

M’inscrire Vous avez une question ?