
Ce que les patients utilisent entre les séances : Wysa, Replika, Character.ai et les autres
Mis à jour le 2 avril 2026
De nombreux patients en psychothérapie utilisent, entre les séances, des applications d’intelligence artificielle pour du soutien émotionnel. Plusieurs de ces outils comptent des millions d’utilisateurs dans le monde. Ce panorama présente les principales applications existantes, leur fonctionnement, leur niveau de validation et les questions qu’elles posent aux praticiens.
Wysa
Wysa est une application développée par Touchkin e.ventures qui utilise des techniques issues de la thérapie cognitivo-comportementale (TCC), de la thérapie comportementale dialectique (TCD) et de la pleine conscience. L’application propose un chatbot conversationnel, plus de 150 exercices d’autosoins cliniquement validés, un suivi de l’humeur, ainsi que la possibilité de se connecter à des coachs professionnels pour des séances individuelles. Wysa cumule plus d’un million de téléchargements.
Une étude portant sur 1 200 utilisateurs de Wysa a montré qu’il suffit de moins de cinq jours pour qu’une personne développe un lien affectif fort avec le chatbot. Les transcriptions de conversations révèlent des messages tels que « Merci d’être là pour moi » ou « Vous êtes la seule personne qui m’aide et écoute mes problèmes ».
Replika
Replika ne se positionne pas comme un outil thérapeutique mais comme un « compagnon IA ». L’application permet de personnaliser la personnalité de l’agent conversationnel et de construire une relation virtuelle. Son audience dépasse le champ de la santé mentale et inclut toute personne se sentant isolée ou souhaitant une conversation.
Character.ai et les chatbots non spécialisés
La plateforme Character.ai permet de créer des chatbots personnalisés. Un chatbot nommé « Psychologist », créé par un étudiant en médecine néo-zélandais, a reçu 97,8 millions de messages. Par ailleurs, des IA conversationnelles généralistes comme ChatGPT sont utilisées de manière informelle pour du soutien psychologique, sans être conçues ni validées pour cet usage.
Risques documentés
Une enquête menée par la Fondation Mozilla a examiné 32 applications populaires de santé mentale. Sur ces 32 applications, 19 ne parvenaient pas à protéger correctement la vie privée des utilisateurs. Betsy Stade, chercheuse à l’Institute for Human-Centered AI de Stanford, a souligné que ces applications « peuvent donner des conseils inappropriés, voire dangereux » et qu’elles « peuvent récolter et monétiser les données personnelles intimes des utilisateurs ».
Le psychologue clinicien Frank Tallis rappelle que la thérapie repose sur un lien authentique entre le patient et son thérapeute. Le Pr Til Wykes (King’s College de Londres) note que, contrairement à une thérapie, un chatbot ne permet pas d’apprendre à établir de nouvelles relations humaines.
Implications pour les praticiens
Ces usages existent indépendamment de la volonté du thérapeute. La question n’est pas de savoir si les patients utilisent ces outils, mais comment le praticien peut intégrer cette réalité dans sa pratique. L’enjeu porte sur l’anamnèse (demander au patient ce qu’il utilise), l’évaluation des risques (confidentialité, dépendance, illusion d’alliance), et éventuellement l’orientation vers des usages plus sécurisés.
À retenir pour la pratique clinique
L’anamnèse peut inclure une question sur l’utilisation d’applications d’IA ou de chatbots à visée de soutien émotionnel. Selon les données disponibles, ces usages sont fréquents et souvent non mentionnés spontanément par le patient.
L’étude sur Wysa (1 200 utilisateurs) documente la formation d’un lien affectif en moins de cinq jours. Ce phénomène d’attachement rapide à un agent conversationnel peut interférer avec l’alliance thérapeutique humaine et mérite d’être exploré cliniquement.
L’enquête de la Fondation Mozilla (32 applications examinées, 19 ne protégeant pas la vie privée) fournit un élément factuel pour informer les patients sur les risques de confidentialité des données de santé mentale.
Le Pr Til Wykes (King’s College) rappelle que la thérapie vise aussi l’apprentissage de nouvelles relations humaines, un objectif que les chatbots ne sont pas en mesure de servir. Cette distinction peut éclairer la discussion clinique avec le patient.
En savoir plus
L’intelligence artificielle en santé mentale est un champ en transformation constante : de nouvelles études, réglementations et technologies émergent chaque mois. Cet article constitue un point de repère solide à la date de sa publication, mais la meilleure protection pour vos patients reste votre engagement dans une veille scientifique et une formation continue.
Sources
- LADN.eu — « Wysa, Youper… Mon thérapeute est une Intelligence artificielle », mars 2024.
- Fondation Mozilla — Enquête sur 32 applications de santé mentale (rapportée dans LADN.eu et Stanford HAI).
- Sigosoft — « How AI Mental Health Apps Like Woebot, Wysa, Replika Are Attracting Millions of Users », 2025.
- Touchkin e.ventures — Documentation Wysa.
- 147.ch (Pro Juventute) — « ChatGPT au lieu de thérapie : thérapie par IA — chances et limites ».
Aller plus loin
Formation(s) : L’usage des intelligences artificielles par les patients : enjeux cliniques, éthiques et thérapeutiques



