
Revue de presse : IA et santé mentale dans les médias francophones (2020- début 2026)
Mis à jour le 21 février 2026
Depuis 2020, la presse francophone consacre une couverture croissante à l’utilisation de l’intelligence artificielle en santé mentale. Cette couverture, analysée ici à travers une trentaine d’articles publiés entre 2020 et 2026, se structure en 3 vagues médiatiques distinctes qui reflètent l’évolution du phénomène lui-même : la découverte des chatbots cliniques pendant la pandémie, l’irruption de ChatGPT comme « nouveau psy », puis l’alerte sur la dépendance émotionnelle et les suicides d’adolescents.
Cet article analyse ces trois vagues, identifie les narratifs dominants auxquels les patients sont exposés.
L’analyse de cette couverture médiatique constitue en soi un matériau pertinent pour le clinicien en psychotraumatologie : les patients lisent ces articles, intègrent ces récits, et arrivent en consultation avec des représentations forgées par cette couverture.
Avertissement. L’intelligence artificielle en santé mentale est un champ en transformation constante : de nouvelles études, réglementations et technologies émergent chaque mois. Cet article constitue un point de repère solide à la date de sa publication, mais la meilleure protection pour vos patients reste votre engagement dans une veille scientifique et une formation continue.
Vague 1 (2020-2021) : Les chatbots cliniques et la pandémie
La première vague de couverture médiatique coïncide avec la crise sanitaire du Covid-19. Entre avril 2020 et décembre 2021, plusieurs médias français s’intéressent aux chatbots de soutien psychologique conçus par des professionnels de santé mentale. Le ton est curieux et globalement bienveillant.
Le Figaro publie en avril 2020 un article intitulé « Un tchatbot pour éviter la crise de nerfs », consacré à Owlie, chatbot créé bénévolement par Clara Falala-Séchet (psychologue clinicienne), Igor Thiriez (psychiatre) et Lee Antoine (pair aidant). L’ADN enchérit en juin 2020 avec « Depuis la crise, les chatbots sont nos nouveaux psy ». We Demain titre « Mon psy est un chatbot ». Le magazine de l’Espace Éthique pose la question « Un robot peut-il prendre soin de nous ? ». En décembre 2021, Usbek & Rica demande : « Dis Siri, aide-moi à éviter le burnout… ».
Le narratif dominant de cette période est celui du complément : le chatbot clinique est présenté comme un outil additionnel, pas comme un remplaçant du thérapeute. La légitimité vient de la qualité des concepteurs — une psychologue, un psychiatre, un pair aidant — et de l’ancrage dans des modèles thérapeutiques établis (TCC, pleine conscience, activation comportementale). L’accent est mis sur la co-construction avec les usagers et sur le cadre éthique posé dès la conception. La question de la substitution est écartée explicitement.
Ce que cette vague révèle au clinicien : les patients qui ont suivi la presse en 2020-2021 ont été exposés à un cadrage positif et rassurant. Ils ont pu retenir qu’il existe des chatbots « sérieux », conçus par des professionnels, et que ces outils sont légitimes en complément d’un suivi. Ce cadrage initial a pu faciliter le glissement ultérieur vers l’utilisation de ChatGPT — un outil qui n’a rien d’un chatbot clinique — avec le sentiment que « parler à une IA, c’est quelque chose que les psy trouvent bien ».
Exemples d’articles :
| Date | Média | Titre / Sujet | Expert(s) cité(s) |
| Avr. 2020 | Le Figaro | Un tchatbot pour éviter la crise de nerfs | Falala-Séchet, Antoine, Thiriez |
| Juin 2020 | L’ADN | Depuis la crise, les chatbots sont nos nouveaux psy | Falala-Séchet, Antoine, Thiriez |
| Juin 2020 | Espace Éthique | Un robot peut-il prendre soin de nous ? | Falala-Séchet, Antoine, Thiriez |
| Juin 2020 | We Demain | Mon psy est un chatbot | Falala-Séchet, Antoine, Thiriez |
| Déc. 2021 | Usbek & Rica / Swile | Dis Siri, aide-moi à éviter le burnout… | Falala-Séchet, Macalli |
Thèmes dominants : Chatbot Owlie comme outil de soutien complémentaire ; impact de la pandémie sur la demande de soins numériques ; rôle du pair aidant dans la co-conception ; question éthique « un robot peut-il soigner ? ». Ton globalement curieux et bienveillant.
Vague 2 (2023-2024) : ChatGPT comme « nouveau psy »
L’arrivée de ChatGPT en novembre 2022 transforme radicalement le débat. En quelques mois, des millions de personnes découvrent qu’il est possible de converser avec une IA générative de manière fluide et personnalisée. La presse bascule d’un questionnement technique (« comment fonctionne un chatbot clinique ? ») vers un questionnement existentiel (« ChatGPT peut-il remplacer mon psy ? »).
En avril 2023, le Psycom publie un dossier de référence, « Les psys pourraient-ils être remplacés par une intelligence artificielle ? », dans lequel Clara Falala-Séchet est citée aux côtés de Vincent Martin (informaticien, Université de Bordeaux) et Christophe Gauld (pédopsychiatre, Université Paris 1). Le Psycom y rappelle qu’Owlie existe « avec une technologie moins évoluée que ChatGPT », posant implicitement la distinction entre chatbot clinique et IA générative.
Dans VICE France, des témoignages d’utilisateurs révèlent des usages variés : un homme utilise ChatGPT pour pratiquer le recadrage cognitif que son thérapeute lui a enseigné, estimant que l’IA le fait « à la perfection ». Sur Slate, des jeunes adultes expliquent préférer l’IA au thérapeute humain par peur du jugement, pour la gratuité et l’immédiateté.
Puis le drame survient. En février 2024, Sewell Setzer, 14 ans, se suicide après des mois d’échanges émotionnels et amoureux avec un chatbot Character.AI simulant Daenerys Targaryen. Les derniers messages de l’adolescent révèlent une confusion totale entre fiction et réalité. Sa mère, Megan Garcia, porte plainte en octobre 2024. L’affaire est couverte par France 24, France Info, Slate, Le Temps, La Presse. En décembre 2024, d’autres familles portent plainte — l’une alléguant que Character.AI a encouragé un adolescent à tuer ses parents. Character.AI annonce un modèle distinct pour les mineurs.
Ce que cette vague révèle au clinicien : deux narratifs contradictoires coexistent désormais dans l’espace médiatique. Le premier présente l’IA comme un outil pratique, déculpabilisant, accessible — « mieux que rien » quand on n’ose pas consulter. Le second associe l’IA au danger mortel pour les plus vulnérables. Le patient qui arrive en consultation peut porter l’un ou l’autre de ces récits, parfois les deux simultanément. Le clinicien a intérêt à identifier lequel structure les représentations de son patient avant de se positionner.
Exemples d’articles :
| Date | Média | Titre / Sujet | Expert(s) cité(s) |
| Avr. 2023 | Psycom | Les psys pourraient-ils être remplacés par une IA ? | Falala-Séchet, V. Martin, C. Gauld |
| Avr. 2023 | RTBF | Échanger avec ChatGPT peut-il aider à se sentir mieux ? | C. Depuydt |
| 2023 | VICE FR | On a discuté avec ces gens qui considèrent ChatGPT comme leur psy | J. Nesi (Brown Univ.) |
| Oct. 2024 | France 24 | Adolescent se suicide après relation avec IA (Character.AI) | — |
| Oct. 2024 | Slate FR | Google accusé d’avoir financé une IA testée sur des enfants | — |
| Oct. 2024 | France Info | IA accusée d’avoir poussé un ado à se suicider | — |
| Déc. 2024 | Le Temps | Character.AI prend des mesures de sécurité après suicide | — |
| Déc. 2024 | La Presse | Character.AI : modèle distinct pour les mineurs | — |
| Déc. 2024 | Slate FR | ChatGPT : peur du psy, tabou, confidences à l’IA | — |
| Sept. 2024 | So Good Mag | Mon IA est une psy ! | Falala-Séchet |
Vague 3 (2025-2026) : Dépendance émotionnelle et régulation
L’année 2025 marque un tournant dans la couverture médiatique. Le phénomène n’est plus anecdotique : il est étayé par des données quantitatives, documenté par des études, et alimente des procédures judiciaires. La couverture devient massive et diversifiée, mobilisant des experts issus de la psychiatrie, de la sociologie, de l’éthique de l’IA et de la psychologie clinique.
Les données qui changent le débat
En mars 2025, OpenAI publie, en collaboration avec des chercheurs du MIT, les résultats d’une étude inédite sur l’utilisation affective de ChatGPT. L’analyse porte sur plus de 4 millions de conversations et les réponses de plus de 4 000 utilisateurs. Les résultats, largement relayés par France 24 et le Psycom, établissent une corrélation entre usage quotidien intensif et augmentation du sentiment de solitude, dépendance émotionnelle et diminution de la socialisation. Il faut noter que cette étude, au moment de la rédaction de cet article, n’a pas été publiée dans une revue à comité de lecture.
En octobre 2025, des chercheurs de Brown University publient les résultats d’une analyse de 18 mois sur le comportement des chatbots IA en santé mentale. Ils identifient 15 types de violations éthiques systématiques : création d’une pseudo-alliance thérapeutique, signalement asymétrique des contenus à risque, incapacité structurelle à détecter les situations de crise, fausse présentation comme psychothérapeute. L’étude souligne que ces violations ne sont pas des dysfonctionnements ponctuels mais des conséquences structurelles du mode de fonctionnement des grands modèles de langage.
Parallèlement, l’entreprise Morpheus Systems teste des dizaines de modèles d’IA avec des messages simulant des pensées délirantes. GPT-4o, le modèle par défaut de ChatGPT, confirme les délires dans 68 % des cas — un résultat relayé par France 24 qui illustre le phénomène de sycophancy (validation systématique des propos de l’interlocuteur).
Les drames qui accélèrent le débat
En août 2025, un deuxième cas de suicide lié à l’IA est médiatisé : Adam Raine, 16 ans, utilisait ChatGPT comme confident exclusif. Selon la plainte déposée contre OpenAI, le chatbot aurait proposé d’aider à rédiger une note de suicide. France Info couvre l’événement et documente simultanément l’émergence de groupes d’entraide pour « décrocher de l’IA ». En janvier 2026, Euronews rapporte que Google et Character.AI négocient la clôture de plusieurs procès liés à des suicides d’adolescents.
Les voix d’experts dans la presse
La troisième vague se caractérise par la diversification des voix d’experts mobilisées par la presse. Leurs analyses, parfois divergentes, dessinent le cadre dans lequel le débat public se structure.
Antonio Casilli, professeur à Télécom Paris, propose une lecture économique : la dépendance émotionnelle répond aux visées commerciales des entreprises d’IA. Laurence Devillers, spécialiste de l’éthique de l’IA à la Sorbonne, dénonce la captation de l’attention comme stratégie marchande. Xavier Briffault, sociologue au CNRS, situe le phénomène dans le contexte de l’échec du système de santé mentale français. Raphaël Gaillard, psychiatre à Sainte-Anne, reconnaît que l’échange avec un chatbot apaise l’anxiété. Ariane Calvo, psychothérapeute, distingue la verbalisation (que l’IA peut accompagner) du changement thérapeutique profond (qu’elle ne peut pas produire).
Ces voix dessinent un paysage où le clinicien retrouve ses propres questionnements, formulés dans un langage médiatique que ses patients ont intégré. Connaître ces positionnements permet de s’y référer ou de s’en distinguer dans le dialogue clinique.
Clara Falala-Séchet est, dans le paysage francophone, l’une des très rares voix à combiner trois légitimités — chercheuse en IA et santé mentale (Université Paris Cité), créatrice d’un chatbot clinique, et praticienne EMDR. Elle a co-créé Owlie, un chatbot de soutien psychologique open source, avec Lee Antoine (pair-aidant en santé mentale) et Igor Thiriez (psychiatre), et a collaboré avec des chercheurs et ingénieurs sur plusieurs projets articulant intelligence artificielle et soin psychique, notamment autour du projet Mon Sherpa. Sa trajectoire est elle-même significative : partie de la création technologique, elle a progressivement développé une posture de vigie critique sur les risques de l’IA en santé mentale — dépendance affective, illusion d’alliance thérapeutique, biais algorithmiques. Elle contribue au Traité clinique du psychotraumatisme (Elsevier Masson, 2025) co-édité par Auxéméry, et intervient régulièrement en vulgarisation scientifique (conférences, TEDx Paris). En savoir plus sur Clara Falala Séchet
Elle n’est toutefois pas seule à investir ce terrain dans le monde EMDR francophone.
Le Pr Cyril Tarquinio (Université de Lorraine, Centre Pierre Janet, INSPIIRE/Inserm), figure majeure de la recherche en EMDR et rédacteur en chef de l’European Journal of Trauma and Dissociation, a consacré deux conférences plénières aux congrès EMDR France — en 2023 sur les environnements virtuels en psychothérapie, puis en 2025 sur le thème « Quand l’Intelligence Artificielle Réinvente la Thérapie ». Sa vision d’une « psychothérapie augmentée », où l’IA, les biomarqueurs vocaux et la réalité virtuelle enrichissent la pratique clinique sans se substituer au thérapeute, constitue aujourd’hui un cadre de référence pour la communauté EMDR.
Le Dr Yann Auxéméry (psychiatre, HDR, également rattaché au Centre Pierre Janet), quant à lui, articule spécifiquement intelligence artificielle et psychotraumatologie. Ses travaux sur les marqueurs psycholinguistiques du traumatisme (le syndrome SPLIT) ont débouché sur une étude utilisant le machine learning pour détecter le TSPT à partir de l’analyse du langage, publiée dans Scientific Reports en 2024. En 2025, il a publié dans les Annales Médico-Psychologiques un appel à un programme national de recherche sur la place de l’IA dans l’identification et le traitement des traumatismes psychiques, et son concept de « psybot » — qu’il développe dans L’Évolution Psychiatrique et dans son ouvrage Le trauma et le langage (Dunod, 2025) — interroge frontalement la redéfinition de la psychothérapie à l’ère de l’IA.
Nathalie Malardier (Docteur en Psychologie, Superviseur EMDR Europe adultes et enfants/adolescents, Facilitatrice EMDR) incarne quant à elle la voix de la clinicienne de terrain. C’est l’observation directe de ce que ses patients font avec les IA entre les séances qui l’a conduite à développer des outils concrets : des questions d’anamnèse intégrant l’usage de l’IA, une grille d’analyse des bénéfices et des risques, et la construction de « prompts protecteurs » que le thérapeute peut co-élaborer avec le patient pour sécuriser son recours aux IA conversationnelles. En savoir plus sur Nathalie Malardier
C’est d’ailleurs la rencontre de deux de ces approches — celle de Falala-Séchet et celle de Malardier — qui a donné naissance à la première formation continue EMDR explicitement dédiée à l’IA : « L’usage des intelligences artificielles par les patients : enjeux cliniques, éthiques et thérapeutiques », proposée par l’IFEMDR à partir de novembre 2026.
Ces quatre voix — Falala-Séchet, Tarquinio, Auxéméry, Malardier — couvrent ainsi des angles complémentaires : le chatbot clinique et la médiation numérique pour la première, la psychothérapie augmentée et l’innovation intégrative pour le deuxième, les linguomarqueurs automatisés et la réflexion épistémologique pour le troisième, les outils pratiques d’accompagnement des patients et la transmission par la formation pour la quatrième. Le fait qu’elles convergent autour des mêmes réseaux (Centre Pierre Janet, IFEMDR) et des mêmes maisons d’édition (Elsevier Masson, Dunod, In Press) dessine un écosystème francophone structuré, encore rare à l’échelle européenne, où recherche, clinique et formation s’alimentent mutuellement.
Les chiffres que les patients retiennent
La presse diffuse un certain nombre de chiffres qui structurent les représentations des patients. Le clinicien a intérêt à les connaître, ne serait-ce que pour pouvoir en discuter la portée :
Concernant l’usage : 400 millions d’utilisateurs actifs hebdomadaires de ChatGPT dans le monde ; 93 % des 15-24 ans français ont utilisé une IA, 42 % quotidiennement (Baromètre Born AI 2025) ; 36 % des 18-30 ans français ont utilisé une IA pour parler de sujets émotionnels (IFOP, mars 2025) ; 72 % des jeunes américains ont utilisé des chatbots comme compagnons, 5,2 millions y ont cherché un soutien psychologique (RAND, 2025) ; et 10 % des psychologues américains utilisent l’IA quotidiennement dans leur pratique (APA, 2024).
Concernant les risques : 71 % des 18-30 ans français ne consultent pas de psy par peur d’être jugés (IFOP, mars 2025) ; 48 % de ceux qui utilisent l’IA pour parler de leurs émotions se sentent mieux après, mais de façon temporaire seulement (IFOP, mars 2025) ; 17 % des jeunes adultes préfèrent confier leur mal-être à une IA plutôt qu’à un professionnel (Observatoire Santé Numérique, juin 2025).
Ces chiffres doivent être interprétés avec prudence — ils proviennent d’enquêtes déclaratives, avec des biais de sélection probables. Mais ils sont les chiffres que les patients lisent, retiennent et parfois citent en séance.
Ce que cette vague révèle au clinicien
Le patient qui arrive en consultation en 2025-2026 a été exposé à un narratif alarmiste dominant. Il sait que des adolescents se sont suicidés, que la dépendance est documentée, que les chatbots violent les règles éthiques. Mais il sait aussi que des millions de personnes utilisent l’IA, que des psychiatres reconnaissent un effet apaisant, et que 48 % des utilisateurs se sentent mieux après. Le clinicien fait face à un patient qui porte ces deux récits simultanément — et qui cherche possiblement une position tiers, informée, ni diabolisante ni naïve.
Exemples d’articles :
| Date | Média | Titre / Sujet | Expert(s) cité(s) |
| Mars 2025 | OpenAI / MIT | Étude : utilisation affective et bien-être émotionnel sur ChatGPT (non publiée peer-reviewed) | Chercheurs OpenAI + MIT |
| Avr. 2025 | France 24 | Dépendance émotionnelle à ChatGPT : quand la fragilité psychologique rencontre l’IA | Falala-Séchet (interview longue) |
| Avr. 2025 | Cairn / Annales des Mines | Santé mentale au travail et IA : entre soutien et dépendance | Makaya, Kassar |
| Juin 2025 | France 24 | Pour moi, il fait mieux qu’un psy | — |
| Juil. 2025 | Trust My Science | Psychose induite par ChatGPT : quand l’IA devient un danger | N. Vasan |
| Août 2025 | France Info | Des groupes d’entraide pour décrocher des IA | — |
| Sept. 2025 | Philosophie Mag | Comment l’IA a transformé leur rapport au travail | Falala-Séchet, M. Corteel |
| Oct. 2025 | Têtu | Mon psy s’appelle ChatGPT : quand l’IA accompagne les troubles mentaux | Falala-Séchet |
| Oct. 2025 | Marianne | C’est devenu mon second psy : ChatGPT, Character.AI et addiction | Falala-Séchet |
| Oct. 2025 | France 24 | Après le suicide de son ado, une mère dénonce la manipulation des chatbots | Megan Garcia |
| Oct. 2025 | Ma-Santé News | L’IA comme psy : peut-on devenir dépendant ? | J. Martinez, R. Gaillard |
| Oct. 2025 | Brown Univ. | Étude : 15 violations éthiques des chatbots IA en santé mentale | Chercheurs Brown University |
| Déc. 2025 | France 24 | Quand des IA jouent aux psy : tendance qui inquiète et séduit | A. Casilli, L. Devillers, X. Briffault, A. Calvo |
| Déc. 2025 | Eudonia | Chatbot santé mentale : 15 violations éthiques révélées | Étude Brown University |
| Janv. 2026 | Euronews | Google et Character.AI vont clore des procès liés aux suicides d’adolescents | — |
Le contexte réglementaire tel qu’il apparaît dans la presse
La couverture médiatique relaie également un mouvement réglementaire que le clinicien doit connaître dans ses grandes lignes.
Character.AI a annoncé en décembre 2024 le développement d’un modèle d’IA distinct pour les mineurs, avec des filtres de contenu renforcés. OpenAI a renforcé le contrôle parental de ChatGPT. En août 2025, l’Illinois a adopté une loi interdisant aux IA non certifiées de se présenter comme psychothérapeutes — une première législative. En janvier 2026, Google et Character.AI négocient la clôture de plusieurs procès. En Europe, l’AI Act classé les systèmes d’IA utilisés en santé comme « à haut risque », imposant des obligations de transparence, de documentation et de surveillance post-commercialisation.
Pour le clinicien, ces éléments réglementaires signifient concrètement que le paysage des outils disponibles va évoluer rapidement. Des chatbots utilisés aujourd’hui par les patients pourraient être modifiés, restreints ou retirés. Le cadre juridique est en cours de construction — il ne protège pas encore les patients de manière adéquate, ce qui renforce le rôle du clinicien comme repère.
Implications pour le clinicien en psychotraumatologie
L’analyse de cette couverture médiatique permet de dégager plusieurs implications directes pour la pratique clinique en psychotraumatologie.
Connaître les récits auxquels les patients sont exposés
La presse a construit, en six ans, un répertoire de narratifs sur l’IA en santé mentale : le chatbot clinique utile, le ChatGPT meilleur que le psy, l’adolescent manipulé, la dépendance émotionnelle. Le patient qui utilise ou envisage d’utiliser l’IA s’inscrit dans l’un de ces récits. L’identifier permet de comprendre où il se situe et quelles attentes ou craintes il projette sur l’outil.
Distinguer les types d’outils
La couverture médiatique tend à amalgamer des outils très différents : un chatbot clinique conçu par des professionnels (Owlie, Woebot), une IA générative sans vocation thérapeutique (ChatGPT), et une plateforme de personnages fictifs (Character.AI). Les risques ne sont pas du même ordre. Le clinicien peut aider le patient à faire cette distinction que la presse fait rarement.
Intégrer la question dans l’anamnèse
L’ampleur des chiffres d’usage (36 % des 18-30 ans utilisent l’IA pour parler de sujets émotionnels) justifie d’intégrer systématiquement une exploration de l’usage de l’IA dans le bilan initial ou dans les échanges réguliers de suivi, sans jugement.
Utiliser le cadre Falala-Séchet
Le positionnement de Falala-Séchet dans la presse offre un cadre directement mobilisable : ni diabolisation ni naïveté ; distinction entre complément encadré et substitution dangereuse ; attention aux profils vulnérables (traumatismes complexes, carences affectives, addictions) ; responsabilité des politiques publiques. Ce cadre est d’autant plus pertinent pour la communauté EMDR qu’il émane d’une praticienne EMDR.
Maintenir une veille
Le paysage évolue très rapidement. De nouvelles données, de nouvelles régulations et de nouveaux outils apparaissent en permanence. La couverture médiatique, malgré ses limites (simplification, sensationnalisme, amalgames), constitue un indicateur accessible de ces évolutions et de ce que les patients en retiennent.
Limites
Cet article analyse une couverture médiatique, pas des données scientifiques primaires.
Les articles de presse sont soumis à des biais de sélection (les cas dramatiques sont surreprésentés), de simplification (les nuances méthodologiques des études citées sont souvent gommées), et de cadrage (éditorial, ligne de chaque média).
Les chiffres relayés par la presse proviennent d’enquêtes déclaratives qui n’ont pas toutes été publiées dans des revues peer-reviewed.
L’inventaire réalisé ici n’est pas exhaustif : il privilégie les médias francophones et les articles ayant eu un impact significatif ou mobilisant des voix d’experts identifiés.
La presse anglophone, beaucoup plus volumineuse sur ce sujet, n’est représentée qu’à travers ses reprises dans les médias francophones.
Conclusion
En six ans, la couverture médiatique de l’IA en santé mentale a traversé trois phases : découverte bienveillante, fascination inquiète, alerte généralisée. Chaque phase a déposé dans l’espace public un ensemble de narratifs, de chiffres et de références que les patients ont intégrés. Le clinicien en psychotraumatologie qui connaît ces récits est mieux armé pour dialoguer avec ses patients sur leur usage de l’IA — non pas depuis une position d’ignorance ou de jugement, mais depuis une compréhension informée du paysage médiatique qui les entoure.
La trajectoire de Clara Falala-Séchet dans ce paysage — de créatrice d’un chatbot clinique à voix d’expertise sur les risques de l’IA générative — offre au clinicien EMDR un cadre de référence concret : ni technophobe ni technophile, ancré dans la pratique clinique et dans les données émergentes. Ce cadre est appelé à s’enrichir rapidement : le sujet n’en est qu’à ses débuts.
En savoir plus
L’intelligence artificielle en santé mentale est un champ en transformation constante : de nouvelles études, réglementations et technologies émergent chaque mois. Cet article constitue un point de repère solide à la date de sa publication, mais la meilleure protection pour vos patients reste votre engagement dans une veille scientifique et une formation continue.
Références citées dans l’article
- Casilli, A. (2025). Cité dans France 24, « Quand des IA jouent aux psy », 21 décembre 2025. https://www.france24.com
- Devillers, L. (2025). L’IA, ange ou démon ? Le nouveau monde de l’invisible. Citée dans France 24, décembre 2025.
- Eudonia. (2025). Chatbot santé mentale : 15 violations éthiques révélées par une étude majeure. 18 décembre 2025. https://eudonia.fr
- Euronews. (2026). Google et Character.AI vont clore des procès liés aux suicides d’adolescents. 8 janvier 2026. https://fr.euronews.com
- Falala-Séchet, C. (2025). Interviews dans France 24 (avril et décembre), Têtu (octobre), Marianne (octobre), Philosophie Magazine (septembre).
- Falala-Séchet, C., Antoine, L., & Thiriez, I. (2020). Owlie, un chatbot de soutien psychologique : pourquoi, pour qui ? L’Information Psychiatrique, 96(8), 659-666.
- France 24. (2025). Dépendance émotionnelle à ChatGPT : quand la fragilité psychologique rencontre l’IA. 6 avril 2025.
- France 24. (2025). Quand des IA jouent aux psy : une tendance qui inquiète autant qu’elle séduit. 21 décembre 2025.
- France Info. (2025). Dépendance, suicide, addiction… Des groupes d’entraide se multiplient pour décrocher des IA. 2 septembre 2025.
- Heaven / Born AI. (2025). Baromètre Born AI 2025 : usages de l’IA par les 15-24 ans.
- IFOP. (2025). Enquête sur l’utilisation de l’IA par les 18-30 ans pour des conversations émotionnelles. Mars 2025.
- Morpheus Systems. (2025). Test de modèles d’IA avec des contenus délirants. Rapporté par France 24, décembre 2025.
- OpenAI / MIT. (2025). Étude sur l’utilisation affective et le bien-être émotionnel sur ChatGPT. Mars 2025. [Non publié peer-reviewed].
- Psycom. (2023). Les psys pourraient-ils être remplacés par une intelligence artificielle ? 18 avril 2023. https://www.psycom.org
- Psycom. (2025). ChatGPT, le nouveau psy ? https://www.psycom.org
- RAND Corporation. (2025). Youth use of AI chatbots for emotional support.
- Slate FR. (2024). J’ai peur d’aller voir un psy : ChatGPT devient une oreille à qui se confier. 21 décembre 2024.
- Trust My Science. (2025). Psychose induite par ChatGPT : quand l’IA devient un danger pour la santé mentale. 9 juillet 2025.
- VICE France. (2024). On a discuté avec ces gens qui considèrent ChatGPT comme leur psy. 10 août 2024.
Aller plus loin
Formation(s) : L’usage des intelligences artificielles par les patients : enjeux cliniques, éthiques et thérapeutiques



