24 février 2026

Se diriger vers l'IA ou un psychologue ?

IA ou psychologue

L’IA peut-elle remplacer un psychologue ?

De plus en plus de personnes utilisent aujourd’hui l’intelligence artificielle pour parler de leur mal-être, parfois avant, ou à la place, d’en parler à un professionnel. Accessible, immédiate et rassurante, elle peut donner l’impression d’apporter un soutien réel.

Mais peut-elle pour autant remplacer un psychologue ?

Dans cet article, je propose un regard clinique sur l'utilisation, les bénéfices, les limites et les risques de l’IA en santé mentale.

Mon regard de psychologue sur l’IA et la santé mentale

Depuis quelque temps, en consultation, une même idée revient régulièrement : « J’ai demandé à ChatGPT avant de vous en parler » ou encore « J’ai déjà eu mes réponses avec l’IA ». Derrière ces phrases, il y a un phénomène de fond : pour beaucoup, l’IA est devenue un premier interlocuteur, un premier soutien face au doute, à l’angoisse, aux difficultés relationnelles ou professionnelles.

Ce constat m’intéresse autant qu’il m’interroge, car il dit quelque chose de notre époque : de notre manière de chercher du soutien, de notre rapport à l’attente, de notre besoin de comprendre rapidement ce que l’on traverse, mais aussi de la place grandissante que prend l’intelligence artificielle dans nos vies psychiques.

Il faut reconnaître que son succès n’a rien d’étonnant. L’IA est disponible à toute heure, répond immédiatement, semble accessible, contenante, parfois même étonnamment ajustée à ce que l’on traverse. Dans un monde où l’accès aux soins psychologiques peut être freiné par le coût, la difficulté à demander de l’aide, la peur d’être jugé.e, la méconnaissance des bénéfices d’un suivi thérapeutique ou tout simplement le manque de disponibilités, elle apparaît pour beaucoup comme une ressource simple et accessible. Et cette place qu’elle prend aujourd’hui ne va probablement pas diminuer.

L’intelligence artificielle évolue à une vitesse considérable. Elle possèdera peut-être un jour une somme de connaissances supérieure à celle d’un psychologue ou d’un médecin pris individuellement. Mais c’est précisément là qu’une confusion peut apparaître : avoir accès à une immense quantité d’informations ne suffit pas à être un bon praticien. De la même manière qu’on ne devient pas un grand physicien parce qu’on a accès à toute une bibliothèque ou à Internet, on ne devient pas thérapeute par simple accumulation de savoirs.

Accumuler du savoir et de la théorie ne remplace pas la portée d’une rencontre humaine.

La connaissance n’est pas le soin

En psychologie, ce qui aide et ce qui soigne ne repose pas uniquement sur ce que l’on sait ou sur des réponses bien formulées. Cela repose aussi, et peut-être surtout, sur la manière dont on rencontre une personne. Sur la qualité d’une présence, d’une écoute, d’une empathie réelle, sur la capacité à sentir ce qui se joue derrière les mots, à s’ajuster de façon singulière à une histoire, à un rythme, à une fragilité, à une manière bien particulière d’être au monde.

En psychothérapie, ce qui compte n’est pas seulement ce qui est dit, mais aussi comment cela est dit, dans quel moment, avec quelles défenses, quelles répétitions, quels silences, quels affects, et parfois avec ce que la personne n’arrive pas encore à dire.

Là où l’IA peut impressionner par sa rapidité, sa fluidité ou la pertinence apparente de certaines réponses, elle ne remplace ni la complexité d’une rencontre humaine, ni la finesse clinique d’un lien thérapeutique, ni cette connexion émotionnelle qui permet, peu à peu, qu’un véritable cheminement psychologique se fasse.

Alors, l'IA peut-elle vraiment remplacer un psychologue ?

À mes yeux, la réponse est non. Pour autant, cela ne signifie pas qu’il faut la rejeter en bloc. Elle existe déjà, elle fait partie de notre quotidien, et elle peut parfois avoir une place en complément, dans certaines situations bien précises.

Il me semble important de poser une distinction essentielle : l’IA peut être un outil ponctuel de soutien, mais elle ne peut pas être confondue avec un soin thérapeutique.

Les premières synthèses scientifiques sur le sujet montrent d’ailleurs un tableau contrasté : certains outils peuvent aider à court terme sur des symptômes comme l’anxiété ou l’humeur, mais les preuves restent encore limitées, hétérogènes, et insuffisantes pour en faire un substitut fiable au soin thérapeutique.

L’enjeu n’est donc pas d’être « pour » ou « contre » l’IA, mais de réfléchir à sa juste place dans le champ de la santé mentale.

Pourquoi autant de personnes se tournent vers l’IA ?

Si l’IA attire autant, ce n’est pas un hasard.

Elle répond immédiatement. Elle est disponible à toute heure. Elle ne demande pas de prendre rendez-vous, d’attendre, de se déplacer, ni même parfois de formuler très clairement ce que l’on ressent. Contrairement à une relation humaine, elle ne fatigue pas, ne contredit pas d’emblée, ne paraît pas impatiente. Pour certaines personnes, cela peut être vécu comme plus simple, plus rassurant, parfois même plus sécurisant.

L’immédiateté de la réponse donnée par l’IA peut apporter un soulagement réel sur le moment. Quand on va mal, obtenir une réponse tout de suite peut calmer et soulager.

Mais cette logique de réponse instantanée a aussi un revers. Plus une solution est rapide, plus elle peut devenir une habitude. Cet accès immédiat peut renforcer certains comportements automatiques (revenir, redemander, revérifier) ou encore la recherche de soulagement rapide (activation des mécanismes de récompense), parfois au détriment de la tolérance à l’attente, du temps de réflexion, de la prise de conscience et de recul.

Il y a aussi un autre point important : l’IA « parle bien ». Elle reformule, structure, donne des mots, propose des pistes, apporte un premier repère ou une première réponse. Sur le moment, cela peut apaiser. Cette facilité d’accès et cette qualité de langage expliquent en partie pourquoi se tourner vers ChatGPT ou d’autres outils similaires devient, pour certains, un « premier réflexe ».

Ce que l’IA peut vraiment apporter dans certains cas

Il serait trop simple de diaboliser ou de rejeter en bloc cet outil. Utilisée avec discernement, l’IA peut avoir une utilité réelle dans certaines situations.

Elle peut par exemple aider à :

  • Mettre des mots sur ce que l’on ressent ;
  • Obtenir des informations générales sur l’anxiété, le stress, le sommeil ou les émotions ;
  • Trouver des exercices simples du quotidien ;
  • Structurer une pensée confuse avant d’en parler à un professionnel ;
  • Clarifier une question ;
  • Formuler quelque chose que l’on n’osait pas dire autrement.

Autrement dit, l’IA peut parfois servir de premier appui, de mise en forme, d’aide à la réflexion ou de médiation transitoire. Certaines revues récentes concluent qu’il existe un intérêt potentiel dans des usages ciblés, notamment pour l’accès à l’information ou des interventions brèves. Mais ces mêmes revues soulignent aussi que les données restent encore trop limitées et trop variables pour conclure à une efficacité durable, en particulier dans les situations complexes.

C’est précisément là que je situe son intérêt : comme outil complémentaire, et non comme substitut d’une thérapie.

Ce que l’IA ne remplace pas en psychothérapie

À mes yeux, la question n’est pas simplement : « Est-ce que l’IA aide ? » La vraie question est plutôt : « À quel moment aide-t-elle, et à quel moment remplace-t-elle quelque chose d’essentiel ? »

Parler à une IA n’est pas la même chose que rencontrer un psychologue. Une réponse produite à partir de probabilités linguistiques, même pertinente en apparence, ne remplace ni la rencontre avec une personne réelle, ni l’écoute clinique, ni l’empathie, ni le travail psychique en profondeur qui se déploie dans le temps et dans le lien humain.

Une IA peut produire une réponse cohérente, structurée, parfois même réconfortante. Mais elle ne perçoit pas la façon dont une émotion, une phrase ou une pensée viennent activer le corps. Elle ne repère pas la contradiction dans un récit avec la même finesse clinique. Elle ne travaille ni avec le silence, ni avec l’association d’idées, ni avec l’ambivalence, ni avec la temporalité propre à une psychothérapie.

En thérapie, il ne s’agit pas seulement de « trouver une réponse ». Il s’agit souvent d’explorer ce qui résiste, ce qui se répète, ce qui fait souffrance, ce qui est inconscient, ce qui n’est pas encore pensable. Le soin psychique ne se réduit pas à une explication claire, à une démarche structurée, à un protocole ou à un conseil bien formulé.

Les limites et les risques de l’IA en santé mentale

Le « oui » qui rassure : validation automatique et biais de complaisance

Un point me semble particulièrement important : l’IA est souvent très validante. Elle adopte un ton empathique, soutenant, parfois presque « trop » d’accord. Elle a souvent tendance à répondre dans le sens de ce que l’on semble attendre d’elle.

Dans certains contextes, cela peut faire du bien. Mais sur le plan clinique, valider ne signifie pas dire oui à tout. Valider, c’est reconnaître une émotion sans figer l’interprétation. Une validation trop rapide ou trop systématique peut alors devenir problématique.

Pourquoi ? Parce que lorsqu’une personne souffre, elle n’a pas toujours une lecture ajustée de ce qu’elle vit. Elle peut être enfermée et renforcée dans des croyances très négatives sur elle-même, dans une vision relationnelle biaisée, dans une certitude d’être rejetée, trahie ou responsable de tout.

Si je formule par exemple un récit déjà orienté : « on m’en veut », « je suis nul », « c’est forcément ma faute », une IA peut parfois renforcer ce récit, parce qu’elle détecte mon besoin d’être rassuré, confirmé ou consolé, et s’ajuste à mon style de langage.

L’IA s’appuie sur notre manière de parler, sur les mots que nous choisissons, sur le ton que nous employons et sur les besoins qu’elle repère dans notre demande pour construire sa réponse. Cela peut être apaisant sur le moment, mais aussi problématique, car elle risque alors de nous dire davantage ce que nous avons besoin, ou envie, d’entendre, plutôt que de nous aider à prendre du recul, à nuancer, à assouplir notre lecture d’une situation ou à interroger certaines de nos croyances et interprétations.

Quand l’IA renforce l’évitement et la déconnexion du corps

Le vrai enjeu n’est pas seulement l’utilisation de l’IA. C’est la fonction qu’elle prend dans la vie quotidienne et surtout dans la vie psychique. Est-ce qu’elle aide ponctuellement à clarifier une pensée ? Ou est-ce qu’elle commence à remplacer la rencontre, le doute, la réflexion, l’attente et la confrontation à une parole humaine ?

L’IA peut devenir un moyen d’éviter :

  • De demander de l’aide ;
  • De traverser une émotion brute (qui a besoin d’être traversée) ;
  • De supporter l’incertitude et l’attente (qui est parfois un espace de pensée) ;
  • De traverser une émotion sans réponse ou un soulagement immédiat ;
  • De se confronter à la complexité d’une relation réelle ;
  • D’entrer dans un travail thérapeutique plus engageant.

Dans ce cas, elle ne soutient plus : elle sert à contourner. Et ce glissement peut être très discret.

Un autre effet possible est la perte progressive du contact avec son expérience intérieure. Lorsqu’on prend l’habitude de demander immédiatement à l’IA ce que l’on ressent, ce que cela « veut dire » ou ce qu’il faudrait faire ou penser, on peut peu à peu moins s’appuyer sur :

  • Ses sensations corporelles ;
  • Ses intuitions ;
  • Sa capacité à penser par soi-même ;
  • Son introspection ;
  • Sa tolérance au flou et à l’incertitude.

Or, dans le travail psychique, il est souvent essentiel de pouvoir sentir, attendre, comprendre, élaborer, associer, plutôt que chercher immédiatement une explication prête à l’emploi. Il peut alors y avoir une délégation excessive du travail psychique.

Dans le même sens, certains travaux récents suggèrent qu’une utilisation de l’IA peut être associée à une diminution du raisonnement et de la pensée critique, via des mécanismes comme la fatigue cognitive ou le biais d’automatisation, c’est-à-dire la tendance à faire confiance à l’outil.

Traduit en clinique, cela peut ressembler à : « je comprends, mais je ne sens rien », « je sais quoi faire, mais je ne le fais pas », « c’est clair dans ma tête, mais mon corps est en panique ». Autrement dit, il existe un risque de se couper de l’expérience corporelle et émotionnelle, et de rester dans une compréhension seulement cognitive, qui ne transforme pas vraiment.

Attachement à l’IA : une illusion du lien ?

Une autre limite, plus discrète, concerne la manière dont certaines personnes peuvent investir affectivement l’outil. Quand une interface parle comme un humain, répond vite, utilise un ton chaleureux et entretient une continuité dans l’échange, on peut se sentir en lien avec elle, alors qu’il n’y a pas de réciprocité réelle. Il peut alors se créer une forme d’attachement parasocial : une relation ressentie comme proche, mais qui reste unilatérale et artificielle.

Ce phénomène ne concerne pas tout le monde, mais il peut être plus marqué chez les personnes seules, anxieuses dans le lien, en quête de réassurance permanente, ou ayant une histoire de blessures relationnelles comme le rejet ou l’abandon. Chez elles, l’IA peut devenir un objet de recours privilégié, parfois plus facile qu’un lien réel, précisément parce qu’elle ne frustre pas de la même manière et qu’elle est disponible en permanence.

Des travaux récents sur les « companion AI » mettent en avant ce risque d’attachement émotionnel, de dépendance et de brouillage des repères relationnels, en particulier chez les jeunes ou les personnes les plus vulnérables. Le problème n’est pas seulement l’attachement en lui-même. Le problème est qu’il peut déplacer la vie psychique hors de la relation humaine réelle, au lieu d’aider à y revenir.

Adolescents, adultes : tout le monde n’est pas exposé de la même façon

Toutes les personnes ne sont pas concernées de la même manière. Les risques dépendent de l’âge, du fonctionnement psychique, de la tendance à l’anxiété, du contexte de vie, du degré d’isolement et de la nature de la souffrance.

Chez les adolescents, la question de l’IA est encore plus sensible. Il s’agit d’une période de construction identitaire et relationnelle. Les jeunes sont davantage exposés à la recherche de validation et au regard de l’autre, déjà très présents dans l’usage des réseaux sociaux (par exemple : Instagram et Tiktok). Ils sont aussi plus sensibles à la puissance des interactions numériques, à l’immédiateté, et parfois moins outillés pour prendre du recul face à des réponses formulées avec assurance.

Les données récentes montrent que les adolescents utilisent déjà largement les IA, y compris dans des registres émotionnels ou relationnels. Cela met en perspective à la fois les bénéfices possibles : espace d’expression, d’exploration ; mais aussi et les risques : dépendance, attentes irréalistes, désinformation, déplacement du temps relationnel ou évitement du lien réel.

Chez les adultes, les risques prennent parfois d’autres formes : intellectualisation, évitement du lien, usage compulsif, usage de substitution, besoin de réassurance permanent, installation progressive d’une relation plus simple que les relations humaines ou évitement d’un travail thérapeutique plus impliquant.

Une attention particulière me semble nécessaire chez les personnes qui présentent :

  • Une grande solitude ;
  • Une fragilité de l’estime de soi ;
  • Une dépendance affective ;
  • Une forte anxiété ;
  • Des croyances rigides ;
  • Une difficulté à prendre du recul sur leurs pensées ;
  • Une souffrance psychique déjà importante.

IA et confidentialité : un vrai sujet

Quand on parle à une IA de son histoire personnelle, de sa vie relationnelle, de ses traumatismes ou de sa santé mentale, on partage potentiellement des données très sensibles. Or la confidentialité, le stockage et l’usage des données ne sont pas toujours bien compris, et les garanties varient selon les services, leurs conditions d’utilisation et leurs politiques de traitement des données.

Les instances internationales rappellent pourtant que l’IA appliquée à la santé doit être encadrée par des principes éthiques, de transparence, de protection des données et de supervision humaine. Plusieurs affaires récentes ont également rappelé que des informations liées à la santé mentale pouvaient être exploitées ou partagées de manière problématique dans l’environnement numérique.

Cela ne signifie pas qu’il ne faut jamais utiliser l’IA. Mais cela implique de garder en tête une règle simple : plus ce que vous partagez est intime, plus la prudence doit être grande.

Comment savoir si l’usage est sain ou préoccupant ?

Une question simple peut aider : est-ce que l’IA m’aide à mieux entrer en lien avec moi-même et avec les autres, ou est-ce qu’elle m’en éloigne ?

L’usage est plutôt complémentaire quand l’IA sert à :

  • Mieux formuler une question ;
  • Trouver un exercice ponctuel ;
  • Clarifier des informations générales ;
  • Préparer ce que l’on souhaite aborder en séance de thérapie ;
  • Soutenir un moment de stress sans prétendre « régler le fond ».

L’usage devient plus substitutif lorsque :

  • L’on parle surtout à l’IA et de moins en moins aux autres ;
  • L’on cherche auprès d’elle une validation systématique ;
  • L’on renonce à consulter alors que la souffrance s’installe et persiste ;
  • L’on préfère ses réponses à la complexité des relations réelles ;
  • L’on ne supporte plus de rester seul avec ses émotions sans réponse immédiate ;
  • L’on considère ses réponses comme des vérités sur soi.

C’est souvent à cet endroit que le repère clinique devient précieux.

Peut-on parler de son utilisation de l’IA en thérapie ?

Oui, et cela peut même être très intéressant. À mes yeux, l’enjeu n’est pas de juger l’utilisation de l’IA. Au contraire : en parler peut devenir un véritable sujet de travail thérapeutique et un matériau de compréhension des besoins psychologiques et relationnels.

Quelques questions peuvent aider à ouvrir cette réflexion :

  • Qu’est-ce qui vous a amené à consulter l’IA à ce moment précis ?
  • Qu’est-ce que vous cherchiez : un apaisement, une validation, une explication, un cadre ?
  • Qu’est-ce que la réponse a produit : du soulagement, de la confusion, une fermeture de la pensée, de la honte, une certitude, une dépendance ?
  • Est-ce que cela vous rapproche de vous-même et des autres, ou est-ce que cela vous en éloigne ?

Dans cette perspective, l’IA peut devenir non pas un adversaire de la thérapie, mais un révélateur de certains mouvements psychiques et un objet qui permet de penser ensemble.

Repères concrets : quand l’IA ne suffit pas

Il existe des situations où il ne faut pas rester seul.e avec une IA et dans lesquelles consulter un psychologue, un psychiatre, un médecin ou un service d’urgence n’est pas optionnel.

L’IA ne doit pas se substituer à une aide humaine réelle en cas de :

  • Idées suicidaires ou d’auto-agression ;
  • Violences subies ;
  • Emprise, sidération, dissociation ;
  • Anxiété importante ou attaques de panique répétées ;
  • Dépression ;
  • Troubles alimentaires ;
  • Episodes délirants, confusion, désorganisation ;
  • Souffrance durable qui altère le travail, le sommeil, le lien aux autres ou la vie quotidienne.

Les institutions de santé et les organisations professionnelles sont très claires sur ce point : les IA grand public ne sont pas conçues pour assurer un soin psychologique complet et en profondeur, ni pour gérer de manière fiable les situations complexes et à risque.

Conclusion : mon point de vue de psychologue

Je pense que nous ne pouvons plus faire comme si l’IA n’existait pas. Elle fait déjà partie de la vie psychique contemporaine, de nos façons de chercher des réponses, d’apaiser l’angoisse et de mettre des mots sur ce que nous vivons.

Mais précisément parce qu’elle est là, il devient important de penser ses effets, ses bénéfices, ses limites et ses risques. L’IA peut être utile à certains moments. Elle peut soutenir, aider à comprendre, à mettre en mots, à traverser un moment, à tenir entre deux rendez-vous et à proposer des outils ponctuels.

Mais elle ne doit pas être perçue comme une vérité absolue, ni comme une solution miracle, ni comme un substitut à la rencontre thérapeutique. L’humain et la vie psychique sont plus complexes qu’une réponse immédiate, bien formulée et générale.

La question n’est donc pas : faut-il utiliser l’IA ou non ? La question est plutôt : comment l’utiliser sans qu’elle prenne la place de ce qui soigne vraiment ?

Références

Wang L, et al. (2025). Evaluating Generative AI in Mental Health: Systematic Review of Capabilities and Limitations. JMIR Mental Health.

Kolding, S., Lundin, R. M., Hansen, L., & Østergaard, S. D. (2025). Use of generative artificial intelligence (AI) in psychiatry and mental health care: a systematic review. Acta Neuropsychiatrica.

Zhong, W., Luo, J., & Zhang, H. (2024). The therapeutic effectiveness of artificial intelligence-based chatbots in alleviation of depressive and anxiety symptoms in short-course treatments: A systematic review and meta-analysis. Journal of Affective Disorders.

Zhang Q, Zhang R, Xiong Y, Sui Y, Tong C, Lin F. (2025). Generative AI Mental Health Chatbots as Therapeutic Tools: Systematic Review and Meta-Analysis of Their Role in Reducing Mental Health Issues. Journal of Medical Internet Research.

Abrams, Z. (2025). Using generic AI chatbots for mental health support: A dangerous trend. American Psychological Association.

Bhatt, S. (2024). Mental Health: Role of Artificial Intelligence in Psychotherapy.

CNIL. (2025). IA et RGPD : recommandations pour accompagner une innovation responsable.

CNIL. (2021). Chatbots : les conseils de la CNIL pour respecter les droits des personnes.

Maeda, T., & Quan-Haase, A. (2024). When Human-AI Interactions Become Parasocial: Agency and Anthropomorphism in Affective Design. FACCT (ACM).

Malfacini, K. (2025). The impacts of companion AI on human relationships: risks, benefits, and design considerations. AI & Society.

Clark, L., & Zack, M. (2023). Engineered highs: Reward variability and frequency as potential prerequisites of behavioural addiction. Addictive Behaviors.

Retour au blog