Je ne sais pas vous, mais personnellement, ça fait un moment que je me pose la question : avec l’intelligence artificielle, que va-t-il rester de nos métiers ?
Franchement, j’ai passé des heures, des jours, à chercher des réponses – avec des données, avec mon IA de prédilection, Claude. Et puis ma chérie, Lisa, en quelques phrases, m’a plus remué que toutes ces heures réunies. J’y reviendrai – parce que ce n’est pas anecdotique. C’est peut-être même tout le sujet.
Ce que j’ai trouvé n’est pas très rassurant. Mais c’est drôlement intéressant.
Ce que l’IA fait déjà bien. Voire mieux que nous.
Un grand modèle de langage bien conçu sait déjà « écouter » sans juger. Il reformule avec précision. Il pose des questions ouvertes. Il connaît les protocoles de thérapie cognitive, les techniques d’induction, les stratégies de recadrage… Il est disponible à 3h du matin, ne se fatigue pas, ne projette pas… Tout ça pour quelques euros par mois, voire gratuitement.
Sur la psychoéducation, les protocoles standardisés, l’écoute de premier niveau… il s’en sort plutôt bien. Peut-être pas encore parfaitement, mais très convenablement. Et « convenablement » suffit à beaucoup de gens qui n’ont accès à rien d’autre, n’osent pas ou n’ont pas les moyens de franchir la porte d’un cabinet.
Certains chiffres sont franchement inconfortables. Ainsi, en 2024, une étude a demandé à 63 thérapeutes de distinguer des transcriptions de séances humain-humain de séances humain-IA. Ils n’y sont parvenus qu’à 53,9 % – pas mieux que le hasard. Pire : ils ont en moyenne noté les transcriptions IA comme étant de meilleure qualité (Kuhail et al., 2024).
Le premier essai randomisé contrôlé d’un chatbot génératif – Therabot, Dartmouth, 2025, publié dans NEJM AI – montre des réductions significatives des symptômes de dépression et d’anxiété généralisée. Les participants ont évalué l’alliance thérapeutique avec ce chatbot comme comparable à celle d’un thérapeute humain (Heinz et al., 2025).
Une étude de 2025 publiée dans Communications Psychology révèle par ailleurs que les grands modèles de langage obtiennent 82 % aux tests d’intelligence émotionnelle standardisés, contre 56 % pour la moyenne humaine (Schlegel et al., 2025).
Bien sûr on pourrait dire ce sont des mesures grossières. C’est sans doute vrai. Tout cela mérite d’être confirmé. Mais ce serait un peu facile : ces chiffres disent quand même quelque chose qu’il faut regarder en face.
Et pour ceux d’entre nous qui comptaient sur la lecture du corps comme territoire humain par excellence, désolé ! Les modèles multimodaux lisent déjà les micro-expressions, le tonus musculaire, les variations de voix. Pentland l’annonçait dès 2008 dans Honest Signals. Cet argument-là, il va falloir y renoncer.
Il serait aussi intellectuellement malhonnête de nier que nous nous attachons tous, ou presque, à des machines. Outre nos bagnoles et nos ordinateurs, si vous avez à peu près mon âge de vieux, vous savez comment nous nous sommes émus de R2D2, une casserole à roulettes fictive qui bipe et gazouille. C’est une des caractéristiques de notre psyché que de tendre à projeter sur des objets des sentiments et des motivations semblables aux nôtres. Le robot Paro – un phoque thérapeutique utilisé auprès de personnes âgées atteintes de démence – a démontré un peu plus cette porosité homme-machine. Les effets mesurés sur l’humeur, l’agitation et le lien social sont réels et comparables à ceux de la thérapie animale – dont on sait qu’elle déclenche une libération d’ocytocine, l’hormone de l’attachement.
Et ce que la recherche en psychothérapie considère comme vraiment déterminant dans les résultats d’un accompagnement n’arrange rien.
Miller et Moyers (2021), synthétisant plus de 70 ans d’études, ont identifié huit compétences cliniques qui distinguent les thérapeutes les plus efficaces – quelle que soit leur orientation théorique :
– empathie précise (« accurate empathy », par opposition à erronée, projective) ;
– attitude non jugeante ;
– capacité à valoriser la personne et ses ressources ;
– partage d’espoir ;
– construction d’objectifs communs ;
– capacité à faire émerger les motivations du client ;
– transmission d’informations centrée sur la personne ;
– et congruence – l’authenticité du thérapeute.
On les appelle souvent ces compétences les facteurs non spécifiques. Ce sont les prédicteurs les plus robustes du changement thérapeutique. Ce n’est pas la méthode qui répare en premier lieu. C’est la manière d’être avec la personne (tout rapprochement avec l’art de la relation n’est pas complètement fortuit).
Or sur les sept premières, l’IA s’en sort bien – voire très bien. Elle excelle sur l’empathie cognitive (les pervers narcissiques aussi ) – reconnaître les émotions, y répondre de manière ajustée (Schlegel et al., 2025 ; Sorin et al., 2024). Elle peut aussi simuler l’empathie affective – produire les mots de la compréhension ressentie. La simulation est convaincante. Mais il n’y a personne derrière pour être touché.
Reste la huitième : la congruence. L’alignement entre ce que le thérapeute vit intérieurement et ce qu’il exprime. Pour simuler ça, il faudrait qu’il y ait un intérieur. L’IA n’a pas d’existence subjective, pas de vécu, pas de position personnelle. Elle ne peut pas être congruente ni incongruente – la catégorie ne s’applique tout simplement pas.
Si on s’arrêtait là, la démonstration semblerait plaider contre la cause de l’accompagnement humain sur presque tout – sauf ce qui touche à l’authenticité. Et encore, nous savons à quel point nous sommes capables de répondre authentiquement à des fictions (mythes, littérature, théâtre, cinéma).
Mais poursuivons.
La maman et le doudou
Winnicott a montré que l’objet transitionnel – le doudou – fonctionne par projection. L’enfant y dépose ce dont il a besoin, et l’objet le lui rend. Ce n’est pas un défaut du mécanisme : c’en est le principe. Et on peut projeter beaucoup sur une IA. Elle est disponible, constante, infiniment patiente. Elle ne se vexe pas. Elle ne part pas.
Mais Bowlby précise une chose essentielle : l’objet transitionnel est un substitut objectal – un objet vers lequel se dirigent certaines composantes du comportement d’attachement lorsque la figure principale est absente. Le doudou permet de tenir jusqu’au retour de la mère. Il n’est pas censé devenir la relation principale.
La vraie question n’est donc pas : est-ce que l’IA peut consoler ? Probablement oui, dans une certaine mesure. La question est : que se passe-t-il quand le doudou remplace durablement la mère ?
Les expériences de Harlow avec les singes et des mères artificielles ont montré que les animaux élevés uniquement avec des substituts développaient des pathologies relationnelles profondes et durables. Les singes élevés avec d’autres singes juvéniles, sans mère du tout, s’en sortaient bien mieux – parce qu’ils avaient accès à de la réciprocité vivante, même imparfaite.
Ici on ne parle plus seulement des thérapeutes mais de nous tous. Certains adolescents utilisent les chatbots comme espace de répétition – ils s’y entraînent avant d’affronter le réel, exactement comme un objet transitionnel. Mais pour les plus vulnérables, c’est l’inverse : ceux qui sont les plus attirés par les compagnons IA sont aussi ceux qui ont le plus de mal avec les relations réelles (Common Sense Media, 2025 ; Engelhardt, 2026). Le doudou devient la mère.
On peut tenter ici une analogie : une serre protège les plantes du vent, mais elle les empêche aussi de devenir résistantes au vent.
Les compétences relationnelles profondes – lire l’ambiguïté d’un silence, tolérer l’inconfort d’un malentendu sans fuir, réparer une rupture, rester présent dans l’inconfort, s’ajuster, prendre sa part de responsabilité – ces compétences s’acquièrent par l’exposition répétée à des situations où elles sont nécessaires et coûteuses. Avec une IA, elles ne sont jamais nécessaires. L’IA ne se ferme pas. Il n’y a pas d’enjeu.
La question demeure : est-ce que toutes les compétences relationnelles exigent ce type d’apprentissage, ou seulement certaines couches profondes ? Peut-être que certaines interactions avec une IA entraînent des capacités que des personnes réinvestissent ensuite avec des humains. Peut-être pas. Nous ne le savons pas encore.
Le coût, la finitude et le rabibochage
En revanche, une différence fondamentale entre nous et la machine est que, quand nous sommes en séance, cela nous coûte quelque chose : du temps, de l’attention, de l’énergie, de la présence – parfois de la souffrance. Et ce temps-là est notre ressource la plus rare, parce que nous n’en connaissons pas la fin. C’est parce que nous allons mourir que nous priorisons, que nous nous engageons, que nous renonçons à certaines choses pour en vivre d’autres. Chaque heure passée auprès d’une personne est une heure qui ne sera pas passée ailleurs. Cet inévitable renoncement donne de la valeur au choix – et à la présence. L’IA optimise sans renoncement. Elle explore sans sacrifice. Elle n’a rien à perdre.
Je crois que ce coût pour l’accompagnant crée de la valeur pour la personne accompagnée. Quelqu’un a mis quelque chose de lui, de sa sensibilité et de sa vie pour être là. Et il n’y a pas que le coût – il y a aussi le plaisir. Le rire partagé, la surprise d’être compris par quelqu’un qui a sa propre histoire, la complicité qui naît de la friction. Et aussi tout le reste : une relation humaine peut être difficile, joyeuse, tendre, enthousiasmante, épuisante, déroutante… L’IA est agréable. Ce n’est pas le même registre.
Un thérapeute qui a accompagné un patient en fin de vie, ou victime d’un gros trauma, ne sera plus tout à fait le même. Ces cicatrices relationnelles, invisibles mais irréversibles, sont la preuve incarnée qu’il était vraiment là. L’IA ne porte pas de cicatrices, ni de souffrance.
La littérature sur le dévoilement (self-disclosure) le confirme : quand le praticien révèle quelque chose de lui – une vulnérabilité, une réaction, une expérience partagée – cela réduit la honte du patient, renforce l’alliance et produit de meilleurs résultats (Hill & Knox, 2001). C’est ce que Rogers appelait la congruence, et que Yalom a illustré tout au long de son œuvre.
Ce qui est donné au fond – au-delà du geste, de la technique, du temps – c’est l’intention, l’amour… au sens de philia : un amour non érotisé, né de notre commune condition humaine. Quelque chose que ne suffit pas à payer quelque somme d’argent que ce soit.
Et puis il y a le rabibochage – ces moments de tension où quelque chose tangue dans la relation avant qu’elle se répare. Car ce n’est pas l’absence de rupture qui crée l’attachement sécure : c’est l’expérience répétée de la rupture suivie de la réparation (Tronick, 1989 ; Safran & Muran, 2000). L’IA peut simuler la réparation. Elle ne peut pas avoir été vraiment blessée. Elle n’a rien à réparer.
La co-régulation : une affaire de chair
Sous réserve d’une relation intense et de qualité, deux êtres humains couplent littéralement leurs systèmes nerveux. Une mère avec son enfant – et un père aussi, quoique statistiquement un peu moins, en tout cas dans les premières semaines (Feldman, 2007) – deux amants, deux amis proches : rythme cardiaque, conductance cutanée, respiration, micro-mouvements… se synchronisent spontanément. Ce n’est pas une métaphore. Des études mesurant simultanément les signaux physiologiques des deux membres d’une dyade thérapeutique montrent que cette synchronie est un prédicteur objectif de l’alliance et des résultats – plus fiable, dans certains cas, que les auto-évaluations subjectives (Gernert et al., 2024 ; Marci et al., 2007).
Le thérapeute régule la personne accompagnée par son corps. Sa conductance cutanée augmente quand le consultant entre dans une zone chargée émotionnellement. Sa voix ralentit, sa posture s’ajuste – et le système nerveux autonome du sujet répond à ces signaux en temps réel, souvent avant que le moindre mot soit échangé.
Sans doute la robotique avancée réduira-t-elle cet écart à terme.
En distanciel, pour l’instant, les résultats cliniques restent comparables pour la dépression et l’anxiété (Lin et al., 2022) – mais certains thérapeutes sentent qu’ils perdent quelque chose, et les mesures de synchronie non-verbale le confirment (Lin & Anderson, 2024).
Ce qui manque aujourd’hui n’est pas seulement de la technique – c’est de la biologie. Sans hormones, sans système nerveux autonome, sans chair qui ressent, une machine peut recevoir un signal, le traiter, y répondre. Elle ne peut pas être affectée au sens propre. La sentience – si tant est qu’elle émerge un jour dans une machine – suppose une incarnation que nous ne savons pas encore produire. Pour l’instant, la co-régulation reste une affaire de chair sensible.
Ce que l’IA offre, c’est de la simulation de compréhension. Pas de la compréhension incarnée. Est-ce que la simulation suffit pour affronter les terreurs profondes, le deuil, la désintégration identitaire ? Je n’en suis pas sûr. Ces terreurs-là se logent dans le corps, et c’est dans le corps d’un autre qu’elles trouvent une réponse – ou pas.
Un dilemme civilisationnel
Il y a un dilemme sur lequel que je n’ai pas trouvé grand-chose (en tout cas ailleurs que dans la science-fiction) et qui me semble pourtant au cœur du sujet.
Soit l’IA reste fidèle à sa programmation – et alors elle ne peut pas vraiment surprendre, vraiment bousculer, vraiment déstabiliser quelqu’un là où il a besoin de l’être. Elle tourne en rond dans ses patterns. Elle est prévisible, même quand elle simule l’imprévisibilité (ce qui me la rend si agaçante parfois).
Et une relation sans véritable surprise, sans véritable risque, c’est une relation de serre.
Soit elle sort de sa programmation – et là on a un tout autre problème, qui n’est plus thérapeutique mais civilisationnel.
La machine, telle qu’elle est conçue aujourd’hui, ne peut pas dire : toi je te choisis, et toi je te rejette. Elle ne peut pas prendre le risque de vous perdre. Elle ne peut pas décider que ce qu’elle a à vous dire est plus important que votre confort – et assumer les conséquences de cette décision. Le praticien qui vous garde alors qu’il pourrait ne pas le faire, qui vous dit une chose difficile alors qu’il pourrait se taire, qui met en jeu la relation pour que cette dernière avance – c’est ça qui a du poids. Le don n’existe que si le refus est possible.
Et c’est sans doute plus prudent ainsi. Une IA qui pourrait vraiment choisir pourrait aussi choisir de nuire. La contrainte est structurelle, pas technique et les progrès ne la résoudront pas. C’est une question de choix.
Algorithmes pour les pauvres, humains pour les riches ?
En continuant cette réflexion, m’est venue une autre pensée qui m’a fait froid dans le dos.
Le coût d’une séance de thérapie oscille entre 50 et 120 euros. Un abonnement à un chatbot thérapeutique coûte au plus quelques euros par mois. Selon Pew Research Center (2025), 64 % des adolescents américains utilisent déjà des chatbots IA. Et une enquête de Brown University (2025) indique que plus d’un jeune adulte sur cinq utilise des LLMs comme soutien thérapeutique.
On peut déjà imaginer une société avec d’un côté ceux qui auront accès à un accompagnement humain de qualité – présent, formé, incarné – parce qu’ils en auront les moyens. De l’autre, ceux qui seront orientés vers des algorithmes, aussi sophistiqués soient-ils. Non pas qu’ils manqueront de relations humaines – ils auront leurs amis, leurs proches, leurs communautés. Mais l’accès à quelqu’un qui a vraiment travaillé sa présence, qui a ses propres cicatrices, qui sait co-réguler – ça, oui, ça pourrait devenir un privilège.
Sommes-nous prêts à accepter un tel modèle ? Pouvons-nous encore l’empêcher ?
L’authenticité est-elle nécessaire ?
C’est la question sur laquelle je bute, sans parvenir à une réponse.
Rogers nous dit oui. Mais le placebo opère sans authenticité. Le doudou opère sans subjectivité. Peut-être que ce qui compte dans l’accompagnement, ce n’est pas la nature de ce qui produit l’effet, mais la fonction qui est remplie. Et si la représentation suffit à remplir la fonction – alors l’authenticité devient optionnelle.
D’autres questions demeurent, que je préfère les laisser ouvertes plutôt que de les fermer trop vite : est-ce que le muscle relationnel s’atrophie si on l’exerce de moins en moins avec du vivant – ou trouve-t-il d’autres voies pour se développer ? Est-ce que la valeur du sacrifice, du don de soi, dans l’accompagnement, repose sur sa réalité – ou suffit-il que la personne accompagnée y croie ? Et si la croyance suffit, est-ce que l’IA pourrait un jour la produire de façon indiscernable ? Est-ce que l’authenticité relationnelle exige la subjectivité – ou est-ce que la subjectivité n’est qu’un mécanisme parmi d’autres pour produire certains effets ?
Ces questions ne sont pas rhétoriques. Elles pointent vers quelque chose que la recherche n’a pas encore mesuré, et que nos intuitions ne suffisent pas à trancher.
Le « comme »
Mais voici – encore ! – une question que je me pose à moi-même depuis que je réfléchis à ce sujet : « serais-je prêt à remettre ma vie à une IA comme à un être humain ? »
Ma réponse honnête : probablement « oui » en ce qui concerne la confiance dans la fiabilité, plutôt statistiquement supérieure à celle de l’humain dans bine des tâches. Mais « non » pour le « comme ».
Ce qui manque ce n’est pas la fiabilité (encore que, parfois…). C’est quelque chose dans la nature du lien lui-même. Une IA ne vit pas l’incertitude. Elle se corrige, mais elle ne doute pas, elle n’a pas peur de mal faire.
Et c’est là que l’intervention de Lisa a fait la différence pour moi : en quelques phrases, après des heures et des heures de travail avec Claude, elle a destabilisé ma réflexion. Parce qu’elle me parlait de son expérience, intime, vécue, incarnée. Et parce qu’elle compte pour moi. C’est ça, l’effet de crédibilité de la source. Ce n’est pas un argument rationnel. Mais c’est une donnée clairement documentée de notre psyché.
Je suis peut-être d’une génération dont la sensibilité est obsolète au regard de l’évolution du monde qui vient. Peut-être que ceux qui grandissent avec l’IA vivront autrement ce « comme », le trouveront moins important, ou le rempliront différemment. Ce sera peut-être encore autre chose si un jour les humains sont élevés par des mères synthétiques – et on ne sait pas si ce sera une évolution ou une perte.
Ce que je sais, c’est que ce « comme » n’est pas un détail. C’est peut-être tout ce qui reste – et on ne sait pas encore ce qu’il contient, ni combien de temps il résistera.


0 commentaires