undefined cover
undefined cover
Episode 13 : IA et Santé Mentale : Bonjour Docteur Chat ! cover
Episode 13 : IA et Santé Mentale : Bonjour Docteur Chat ! cover
L'Actu En Tête

Episode 13 : IA et Santé Mentale : Bonjour Docteur Chat !

Episode 13 : IA et Santé Mentale : Bonjour Docteur Chat !

24min |20/11/2025
Play
undefined cover
undefined cover
Episode 13 : IA et Santé Mentale : Bonjour Docteur Chat ! cover
Episode 13 : IA et Santé Mentale : Bonjour Docteur Chat ! cover
L'Actu En Tête

Episode 13 : IA et Santé Mentale : Bonjour Docteur Chat !

Episode 13 : IA et Santé Mentale : Bonjour Docteur Chat !

24min |20/11/2025
Play

Description

L’intelligence artificielle s’invite partout dans notre quotidien… et désormais jusque dans nos conversations les plus intimes. Peut-on vraiment parler de santé mentale avec une IA ? Est-ce un simple outil, un compagnon, un miroir… un risque… ou peut-elle remplacer un psy ?


Dans cet épisode de L’Actu en Tête, Didier Meillerand et Fabrice Pastor décryptent le rôle grandissant de l’IA dans l’accompagnement psychologique :

🤖 Que peut faire l’IA aujourd’hui pour soutenir les personnes en difficulté ?

🧠 Pourquoi sommes-nous nombreux à chercher du réconfort ou des réponses auprès d’un assistant virtuel ?

⚠️ Quels risques, quelles limites, quelles dérives ?

🩺 Et surtout : l’IA peut-elle réellement remplacer un psychologue… ou seulement compléter le soin humain ?

🌱 Comment garder l’humain au cœur de la santé mentale ?


Entre innovations, questions éthiques et nouveaux usages, un épisode pour comprendre ce que l’IA change (ou ne change pas) dans notre rapport au soin — et ce qu’elle ne pourra jamais remplacer.


🎧 Un décryptage accessible, utile et ancré dans l’actualité, à retrouver chaque semaine dans L’Actu en Tête.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Bienvenue sur l'Actu en Tête.

  • Speaker #1

    Bonjour à toutes, bonjour à tous, bienvenue dans l'Actu en Tête, ce podcast hebdomadaire où nous tentons d'explorer l'actualité par le prisme de la santé mentale pour prendre de la distance, du discernement dans nos vies quotidiennes. Et chaque semaine, je retrouve avec joie mon complice Fabrice Pastor, neuropsychologue, formateur, conférencier, auteur, créateur de contenu. Bonjour Fabrice.

  • Speaker #0

    Et bonjour Didier, je rappelle que tu es journaliste, président du Psychodon et commissaire général du Forum National de la Santé Mentale. Je suis une nouvelle fois ravi de te retrouver pour ce nouvel épisode et bonjour également à toutes et à tous.

  • Speaker #1

    Fabrice, aujourd'hui on observe un sujet qui nous intéresse tous dans nos familles et qui peut aussi parfois nous inquiéter, mais qui a pris le devant de la scène, c'est l'intelligence artificielle. On en parle partout, dans les familles, je disais, dans les écoles. à l'hôpital, dans les médias. On va se poser une question en lien avec le cœur de notre podcast. Quels sont les bénéfices et les risques de l'intelligence artificielle dans le champ, dans le domaine de la santé mentale ? Le bénéfice-risque, comme en médecine.

  • Speaker #0

    Oui, c'est ça. Alors, c'est sûr que c'est un sujet qu'on ne va pas épuiser en un seul podcast, évidemment. On va juste aujourd'hui proposer quelques clés de lecture et surtout des pistes pour essayer, encore une fois, et c'est le but de ce podcast, d'y réfléchir autrement. Parce que, d'ailleurs, un petit peu toutes les promesses de l'IA, on peut aussi parfois se demander ce que devient notre rapport à ce qui nous intéresse, la souffrance, la santé mentale, l'écoute quand une IA va s'en mêler.

  • Speaker #1

    Est-ce que tu penses, Fabrice, que, au regard de l'étude publiée cette année aux Etats-Unis, un essai clinique sur le chatbot de thérapie qui est baptisé Therabot, en français, le résultat des étudiants anxieux qui allaient un peu mieux après quelques semaines d'échange. Alors, est-ce qu'on soit se dire, est-ce que, vraisemblablement, il est raisonnable de penser que l'IA peut remplacer le psy ?

  • Speaker #0

    Là, c'est la grande et vaste question. Oui, c'est intéressant, mais attention parce qu'il peut y avoir effectivement une amélioration modeste, on va dire, dans un protocole. Mais ça peut pas dire non plus qu'on a trouvé le psychologue, le psychiatre pas cher du futur. Enfin, je dirais pour l'instant, parce que ce sont des outils qui évoluent tellement vite qu'à ce jour, il me semble que ce ne soit pas le cas. Mais on verra dans l'avenir. Avant de parler de ce psy virtuel, juste on rappelle quelques mots. D'où vient l'IA ? Tout premier programme qui date de 1956 au Dartmouth College avec MacCarty et Minsky. Quelques années plus tard, un programme qui a marqué les esprits, c'était le programme ELISA qui a été créé en 1966. C'était un programme qui simulait un thérapeute. C'était simple, mais certains utilisateurs avaient déjà l'impression qu'une machine les comprenait. Aujourd'hui, Chad GPT, Claude, Gemini, bref, plein de chatbots qui peuvent nous offrir une écoute 24h sur 24 en un instant, qui peuvent rappeler des exercices de respiration, qui peuvent proposer plein de choses, plein de prises en charge, entre guillemets. Mais bon, il n'y a pas de réelle empathie, il n'y a pas d'émotion. Il n'y a pas de capacité à comprendre ce qu'est la détresse humaine, dirons-nous.

  • Speaker #1

    Comme neuropsychologue, Fabrice, ce que tu nous dis, c'est que l'IA, c'est un peu comme un dictionnaire des émotions. Ça donne des définitions, mais ça ne peut pas prendre en compte le vécu de la personne. Nous sommes des êtres sociaux, des êtres de relations intimes.

  • Speaker #0

    Oui, en quelque sorte. Et même pire, ça peut même donner l'illusion d'une compréhension. C'est ce qu'on appelle d'ailleurs l'effet ELISA. qu'on avait déjà observé dans les années 60, où des patients étaient persuadés, étaient convaincus que l'ordinateur les comprenait. Alors qu'en réalité, il ne faisait que reformuler. Alors on n'est pas loin de l'effet Barnum, l'effet Barnum bien cognitif très connu. J'aime bien quand je présente l'effet Barnum parler un petit peu de l'horoscope, c'est-à-dire qu'en gros, plus on va vous donner une image de vous, une description de votre personnalité qui va être floue, et plus vous allez avoir le sentiment qu'elle vous correspond parfaitement. Ça c'est l'effet Barnum.

  • Speaker #1

    Est-ce qu'on peut se dire, sans être recto, Trop grade que l'IA, ça peut être dangereux pour la santé mentale.

  • Speaker #0

    Ça peut être dangereux si la personne en crise, qui est en détresse psychologique, confond un script automatisé avec une vraie oreille humaine, parce qu'elle peut s'enfermer dans une fausse relation thérapeutique. D'ailleurs, il faut aussi parler de la qualité du prompt. Le prompt, c'est l'information, l'ordre qu'on envoie Ausha. La justesse de la question, du prompt, va influencer énormément la réponse. Quelqu'un qui est en détresse, peut formuler une demande qui va être confuse, qui peut être ambiguë, voire trop brouillonne, et l'IA va y répondre de manière tout aussi imprécise. Par contre, évidemment, le thérapeute humain, un temps soit peu expérimenté, évidemment, va reformuler, va ajuster, alors qu'une IA, non.

  • Speaker #1

    Et puis, ne va pas rentrer dans le champ de la relation émotionnelle avec tous les vecteurs de la communication. Il n'y a pas le langage, il n'y a pas le sourire, le regard. la morphopsychologie qui se joue lors des séances. Est-ce à dire que l'intelligence artificielle est plutôt au service des psys que l'inverse ? On va dire les choses franchement. Depuis un an, on voit de partout des déclarations très enthousiastes. L'IA va sauver notre pauvre psychiatrie. L'IA va réduire la charge des soignants. L'IA va compenser le manque de professionnels. Parfois, même des fédérations, comme la Fédération hospitalière de France, publie un document cet été pour affirmer que l'IA peut même dégager du temps au personnel soignant. Alors qu'on vit dans un pays où trouver un psychiatre révèle du parcours du combattant, évidemment, ses perspectives, ses espoirs emballent certains. Mais Fabrice, toi qui les observes de près, est-ce que tu crois que ces promesses, elles tiennent réellement debout ?

  • Speaker #0

    Alors, il y a certaines parties du discours qui tiennent, c'est vrai. Il y en a d'autres, par contre, qui sont fausses. Certes, l'IA... peut analyser des milliers, des millions de données médicales en quelques secondes. Elle peut repérer des signaux faibles dans l'évolution d'une dépression ou proposer des alertes de rechute, croiser des variables que le clinicien ne peut pas traiter seul. Et je parle ici des IA généralistes, pas de dispositifs qui pourraient être médicaux et certifiés. Alors c'est super utile, c'est même indispensable aujourd'hui pour les médecins de terrain et surtout en psychiatrie. Après, l'efficacité technique n'a rien à voir avec la qualité du soin.

  • Speaker #1

    Est-ce qu'on peut dire, Fabrice, qu'une IA peut annoncer à un patient qu'il risque une rechute, mais ne peut pas l'aider à comprendre pourquoi il se sent mal ?

  • Speaker #0

    Exactement, et je le redis clairement, dans des conditions strictement encadrées et supervisées, certains Ausha montrent des bénéfices. donc le problème c'est pas tant l'outil en soi, c'est ce qu'on en fait, c'est un peu comme pour tout. Donc, le chat peut repérer un motif, un fonctionnement particulier, par exemple dans ton sommeil, si tu utilises une appli, dans ta fréquence cardiaque, si tu portes une montre connectée, mais elle ne va pas comprendre ton histoire, elle ne va pas comprendre tes contradictions, la façon dont tu traverses un événement. Et là où la situation devient préoccupante, c'est que cette efficacité technique donne parfois au décideur ... l'impression que l'on peut remplacer la relation humaine justement par une IA.

  • Speaker #1

    Je sens venir la polémique parce que derrière les discours sur le gain de temps, on entend parfois autre chose. On va commencer à penser qu'il est possible de remplacer le manque de thérapeutes par des machines.

  • Speaker #0

    Pourquoi payer un professionnel quand un assistant numérique peut traiter les premières demandes ? On pourrait se poser la question. Il y a certaines institutions qui commencent à le dire d'ailleurs même un peu en filigrane. Ce raisonnement ouvre la voie aujourd'hui à une psychiatrie, une psychologie qui est un peu low cost, qui va être pilotée par une logique comptable. D'ailleurs, j'ai appris que certaines assurances américaines testent des chatbots à ce sujet. Tu en penses quoi ?

  • Speaker #1

    Je serais comme toi, je dis, attendons pour voir. Tu as raison, dans un contexte où nous cherchons des économies par... la tentation grandit, et même quand on en discute, même avec des responsables d'établissement, la tentation grandit d'installer des assistants conversationnels pour gérer des premiers contacts avec l'anxiété légère de certains patients, pour répondre à des questions à des familles, pour orienter des jeunes en détresse vers des protocoles qui seraient automatisés. Bref, une première ligne d'accueil qui serait robotisée. on remplace la performance qui est qu'on m'attribuait à la permanence téléphonique par un chat qui dit je comprends votre inquiétude, sauf qu'en fait, le risque Fabrice, c'est que il faut bien qu'on sache qu'il ne comprend rien en fait.

  • Speaker #0

    Oui, c'est ça. Et une IA peut aussi très bien minimiser un... Symptôme qui pourrait être grave. Elle peut mal interpréter une phrase ou quelque chose. Et donc, elle peut conclure qu'une situation ne nécessite pas de prise en charge particulière. On l'a vu, notamment dans des tests indépendants. Et si un hôpital ou une plateforme particulière s'appuie sur ce tri automatisé, plusieurs personnes vulnérables pourraient clairement passer entre les mailles du filet.

  • Speaker #1

    En fait, Fabrice, un outil reste un outil, même s'il est de plus en plus performant. Et un être humain, ça reste un être humain. Un outil est au service de l'humain qui l'a constitué. Et l'humain, il est quand même dans une complexité qui n'a rien à voir avec un outil. Et au fond, tout cela, ça rejoint une question sociale dans le champ politique. parce que l'IA devient en fait un prétexte pour masquer le manque de... moyens humains, le manque de thérapeutes sur les territoires, par exemple.

  • Speaker #0

    Oui, c'est pour ça que ce débat devrait, à mon sens, sortir du cercle des experts pour entrer dans le débat public. On l'a dit, l'IA peut aider le clinicien parce qu'elle va accélérer l'accès aux données, elle va faciliter les choses, faciliter le repérage, elle peut faciliter le diagnostic, elle peut même simplifier la coordination des suivis, elle peut créer des protocoles de soins, elle peut créer des accompagnements, elle peut créer énormément de choses. Il faut donc l'utiliser à bon escient. mais il ne faut pas que ce soit la solution par défaut.

  • Speaker #1

    Oui, et lorsque c'est encadré par des psychiatres avec une grande proximité en ce qui concerne l'alliance thérapeutique, ça peut être très bien fait. Je pense au lauréat de Transmental de cette année qui a développé une clinique digitale qui est aussi en lien avec un chat et qui s'appelle Psy4Kids. C'est une belle initiative dans le champ de l'IA. mais derrière avec un vrai projet médical et qui est limité, qui ne remplace pas la clinique du professionnel de santé. Parce que l'IA, elle ne permet pas de rester plus de dix minutes avec un patient en crise. Elle ne sent pas qu'un adolescent cache quelque chose derrière son comportement, derrière son langage. L'IA ne voit pas la micro-expression ici ou là. de la morphopsychologie ou même d'un mot, d'une parole ou d'un geste qui traduit un malaise. Elle n'entend pas une respiration tremblée.

  • Speaker #0

    Elle n'a pas de responsabilité clinique. Elle ne porte pas non plus les conséquences de ce qu'elle propose. Elle n'est pas engagée dans la personne. Et finalement, on pourrait se dire que cette absence de responsabilité soulève des questions éthiques. J'ajoute aussi quelque chose qu'on oublie souvent, c'est l'absence de contact réel, voire physique, qui est pourtant essentiel dans certaines prises en charge. Et aussi le non-verbal. L'IA n'analyse, à mon sens, à ma connaissance, pas le non-verbal. Alors, si j'ai dernièrement participé, observé un nouveau chatbot, en fait, qui observe certaines consultations et qui analyse le comportement non-verbal du patient, ça s'appelle Marco, je trouve ça particulièrement intéressant. Ça pourra intéresser éventuellement certains professionnels de santé. Bref. Tout ça pour dire qu'à ce jour, pour l'instant, aucune machine ne peut remplacer une présence.

  • Speaker #1

    Un regard, une posture, et c'est presque rassurant Fabrice, parce que la relation thérapeutique, l'alliance thérapeutique entre une personne, un patient et un professionnel de santé mentale, c'est une aventure humaine qui dépasse bien sûr la relation entre un outil et une personne. Et parfois, on se doit de l'aborder. L'intelligence artificielle déraille lorsque l'usage n'est plus raisonnable. Il y a des situations où ça se passe mal. Par exemple, l'opinion publique a été marquée par une affaire aux États-Unis où des parents accusent l'IA, un tchat, d'avoir renforcé le désespoir de leur fils de 16 ans qui est mort par suicide. Et on se pose évidemment la question directement, est-ce que l'intelligence artificielle... peut aller jusqu'à mettre en danger de mort une personne.

  • Speaker #0

    Oui, elle peut, évidemment. Et pas seulement en théorie. On a des tests indépendants où certains chatbots ont validé des idées délirantes soutenues des pensées désorganisées. Des chatbots qui ont répondu à des messages suicidaires avec des formulations assez ambiguës. Il y a d'ailleurs des chercheurs qui parlent de folie à deux technologiques. Alors, qu'est-ce qui se passe ? L'utilisateur, en gros, formule une détresse. L'IA va reformuler, sans apporter de nuances. l'utilisateur interprète cette reformulation comme une sorte de caution. Cette boucle amplifie la souffrance et ça ne la pèse pas. Donc, voilà, l'IA ne va pas créer un mal-être, mais elle peut l'aggraver. Elle ne va pas l'inventer.

  • Speaker #1

    Alors, il y a aussi une autre... Une interpellation dont on ne parle peut-être pas vraiment, c'est quand l'IA ne se trompe pas, mais qu'elle influence. Ces outils ne se contentent pas de répondre, mais ils orientent des choix, ils proposent des interpellations, ils suggèrent des pistes. Et là, une personne vulnérable peut accorder peut-être une confiance aveugle à ce que lui affirme l'intelligence artificielle.

  • Speaker #0

    Il y a plusieurs travaux qui montrent... que des utilisateurs suivent les recommandations d'une IA même lorsqu'elles contredisent leur propre bon sens. Une sorte de biais d'autorité technologique.

  • Speaker #1

    C'est vraiment l'inverse de notre projet en faisant ce podcast Actu en tête. Ne pas prendre ce qui est un faux comme un faux ou ce qui est un toxe comme un toxe, mais tout de suite se dire qu'est-ce qu'on veut dire, pourquoi on me dit ça et est-ce qu'ailleurs on dit la même chose. Comparer l'information parce que le danger ne vient pas seulement d'une erreur, il peut aussi venir du pouvoir « invisible » qui a été embarqué dans l'outil.

  • Speaker #0

    Oui, et j'ajoute un autre facteur, nos fameux biais cognitifs. Une personne qui cherche une confirmation trouve souvent dans l'IA une réplique qui conforte son idée, parce que le modèle reste sensible à la formulation.

  • Speaker #1

    C'est très fort ce que tu dis. Au fond, la question n'est plus « l'IA est-elle exacte ? » mais « l'IA impose-t-elle une façon de se sentir de ? » de ressentir en fait, et de participer aujourd'hui à un marché de la détresse psychique. Il existe une question que beaucoup évitent, c'est-à-dire que derrière l'IA, il y a de l'argent. Qui gagne de l'argent avec ses outils, avec l'IA ? Parce que c'est un marché énorme, qui fait à la fois rêver, qui est plein de perspectives, et qui est sur le champ de la santé mentale. ça Ça attire les méchants, ça attire les gentils, les géants du numérique, les coachs. C'est un gigantesque basarlande.

  • Speaker #0

    Oui, ça, c'est aussi un autre angle à traiter. Il y a des entreprises qui promettent une sorte d'accompagnement émotionnel ou psychologique ou thérapeutique personnalisé. Par contre, derrière, elles collectent des données. Des données qui sont sensibles. Votre sommeil, votre stress, vos ruminations, vos habitudes de vie, vos moments de crise. Toutes ces informations peuvent vraiment intéresser des personnes et des entreprises. qui n'ont rien à faire dans cet espace.

  • Speaker #1

    Et là, c'est un vrai risque démocratique parce qu'un outil comme l'IA, présenté alors comme un usage thérapeutique, peut devenir un usage commercial à des fins mercantiles ou marketing, ou pire, devenir un outil d'observation, voire de tris sociologique.

  • Speaker #0

    Oui, ça c'est absolument clair. Si la détresse psychique, psychologique devient une sorte de levier économique, Alors là, on... On est dans un modèle où la souffrance va rapporter de l'argent. Ça, ce n'est pas acceptable. Le soin doit rester dans un espace protégé. Et si les IA fragilisent cette frontière, ça va créer un danger qui ne va pas seulement être individuel, mais qui va être totalement sociétal.

  • Speaker #1

    Ce qu'on explore là, c'est que l'intelligence artificielle, c'est sûrement un bel outil de façon pragmatique, mais qui ne menace pas seulement la relation thérapeutique parce qu'il ne s'agit pas d'une réalliance de soins entre deux humains. mais qu'elle menace aussi la manière dont une société traite la vulnérabilité. Elle menace la vision de l'humain, la vision vivante de notre humanité.

  • Speaker #0

    C'est ça, ce sont de formidables outils. Quand je présente les IA, j'explique que c'est vraiment un outil absolument formidable. C'est digne de la révolution de l'Internet. Mais par contre, il ne faut pas être naïf avec l'outil.

  • Speaker #1

    Il s'agit à t'entendre, de s'interroger de qui, comment, euh doit-on faire pour poser des limites ? On a décrit les bénéfices possibles de l'IA dans le champ de la santé mentale. On a touché du doigt des limites et critiqué presque des enjeux économiques. Maintenant, la question des limites, elle se pose. On a l'impression, je le disais tout à l'heure, que c'est un peu le grand bazar ou le Far West. Les entreprises avancent plus vite que la loi. Les hôpitaux tentent de s'adapter, les usagers se débrouillent. L'État hésite, alors qui prend la main pour encadrer l'IA dans le champ de la santé mentale ?

  • Speaker #0

    La question reste absolument centrale, oui.

  • Speaker #1

    Il y a quand même une observation qui est celle de l'Europe, et parfois elle nous est utile, et une fois n'est pas toujours coutume, si je voulais être polémique. Mais enfin, l'Europe essaie quand même de structurer un cadre avec un dispositif, l'AIE Act, adopté en 2024, et qui fixe des règles strictes. Pas de notation sociale, pas d'exploitation de la réunirabilité, transparence obligatoire et contrôle humain pour les IA utilisés dans des domaines sensibles, dont la santé mentale. Chaque État doit surveiller l'application. Et en France, c'est la CNIL, la Commission nationale de l'information et des libertés, qui en a la charge. Et cette mise en œuvre de ce dispositif d'encadrement sera progressive jusqu'en 2026. L'objectif est clair, c'est éviter que l'IA, ces outils, agissent sans aucun... garde-fous.

  • Speaker #0

    Oui, la Commission nationale informatique et liberté, tout à fait. C'est un cadre qui est effectivement indispensable, mais qui décide pas de la manière dont l'IA sera utilisée dans ton cabinet, dans un hôpital ou même à l'école. La loi, elle va tracer des limites, mais elle va pas créer la relation de soins. Donc, grosso modo, si on regarde le terrain, on voit qu'il y a, globalement, il y a trois acteurs. Il y a toutes les instances étatiques, il y a les professionnels de terrain et il y a les plateformes technologiques. Pour l'instant, on a le sentiment qu'aucun ne joue pleinement son rôle. L'État voit l'IA comme une super opportunité. Les soignants l'utilisent aussi comme une super opportunité, mais observent aussi les risques. Et les plateformes, elles suivent leur logique propre. Et donc, on est face à un déséquilibre qui ouvre une brèche, parce que pour y répondre, chacun doit monter en compétences. Dès l'école, il faut apprendre, il faut former les enfants à utiliser cet outil. C'est une responsabilité collective.

  • Speaker #1

    Les politiques, évidemment, ils ont un petit peu de mal à suivre, et en particulièrement en France, dans le contexte que nous traversons ces derniers mois, des députés en off, vraisemblablement, même ceux qui siègent dans la commission parlementaire santé mentale, ils ne savent pas trop ce qu'il faudrait faire et comment légiférer. La technologie va évidemment beaucoup plus vite que les dispositifs qui seraient potentiellement à disposition de mise en œuvre. par des réglementations. Et puis, de toute façon, en ce moment, ils ont du mal à se concerter. Bon, ils craignent aussi de freiner l'innovation. Pendant ce temps, des millions de personnes et de plus en plus nombreuses utilisent l'IA sans vraiment un cadre, un périmètre clair, un encadrement spécifique.

  • Speaker #0

    Oui, c'est vrai qu'il n'y a pas de choses claires qui sont pensées. Il n'y a pas de choses claires qui sont posées. Mais on parle quand même ici de santé mentale. n'est pas un sujet... banal. Alors, dans le commerce, dans la mobilité, tu peux perdre de l'argent, mais dans la détresse psychologique, là, tu risques une vie humaine. Donc, la première responsabilité, à mon sens, ça l'accompte surtout à l'État. C'est l'État qui doit définir, définir une ligne rouge, qui doit éventuellement interdire, je ne sais pas, certains usages sans supervision, et qui doit aussi imposer une transparence. Je le répète, c'est un outil qui touche aussi aux émotions. où la santé mentale doit être traitée comme un dispositif sensible. Ce n'est pas juste une application grand public.

  • Speaker #1

    Il faut espérer que dans les échéances à venir, ce sujet sera pris en compte. Les professionnels du soin aussi doivent se positionner, c'est peut-être absolument partie prenante, et faire des propositions. Certains psychiatres nous disent qu'ils voient l'IA arriver comme une vague qui risque de les contourner. D'autres se taisent pour ne pas passer pour des ringards des antithèques. d'autres experts un gain de temps, et on verra un peu plus tard, ce n'est pas de nature à être très organisé.

  • Speaker #0

    De toute façon, les plateformes ne vont pas s'autoréguler par altruisme. Déjà, s'il faut partir de cette idée, elles vont réagir, à mon sens, seulement quand la loi les y obligera. Il y a des choses, il y a des avancées, il y a des choses qui essaient de légiférer. On pourrait penser que l'IA fera du bien parce qu'elle sera mieux que rien. Sauf que mieux que rien, ce n'est pas une politique publique.

  • Speaker #1

    Alors, pour conclure, Fabrice, et comme toujours, et c'est ce qu'on répète à chacun de ces numéros dans l'actu en tête, il y a l'acteur essentiel, vous, vous, le citoyen, vous pouvez, et on le dit à chaque début d'épisode, prendre en charge le sujet du discernement, en parler en famille, partager vos émotions, et puis vous dire ça, j'y vais, ça, j'y vais pas, je savais pas que j'y accédais, mais... qu'est-ce que ça signifie pour moi ? Bref, être un acteur, comme un acteur thérapeutique, c'est-à-dire utiliser l'IA comme un outil et non comme un soignant à qui on donne un blanc-seing.

  • Speaker #0

    Oui, je pense que c'est nous qui devons tenir la barre et pas la machine. Je pense que l'État doit protéger, je pense que les soignants doivent orienter et les plateformes doivent rendre des comptes. Et puis aussi les citoyens, comme tu l'as dit. qui doivent savoir ce qu'ils acceptent.

  • Speaker #1

    Nous allons, sur ce sujet, nous arrêter là pour aujourd'hui. L'IA promet beaucoup, on pourrait en parler davantage encore. L'IA nous inquiète parfois, mais elle ne remplacera jamais ce qui est au cœur du soin, au cœur de nos spécificités d'êtres sociaux, la présence, la responsabilité, le regard, la chaleur humaine dans la relation. Merci à toutes et à tous de nous avoir écoutés. Merci Fabrice.

  • Speaker #0

    Eh bien merci, et on se retrouve donc très vite. pour un nouvel épisode de l'actu en tête. Prenez bien soin de vous et à bientôt.

Description

L’intelligence artificielle s’invite partout dans notre quotidien… et désormais jusque dans nos conversations les plus intimes. Peut-on vraiment parler de santé mentale avec une IA ? Est-ce un simple outil, un compagnon, un miroir… un risque… ou peut-elle remplacer un psy ?


Dans cet épisode de L’Actu en Tête, Didier Meillerand et Fabrice Pastor décryptent le rôle grandissant de l’IA dans l’accompagnement psychologique :

🤖 Que peut faire l’IA aujourd’hui pour soutenir les personnes en difficulté ?

🧠 Pourquoi sommes-nous nombreux à chercher du réconfort ou des réponses auprès d’un assistant virtuel ?

⚠️ Quels risques, quelles limites, quelles dérives ?

🩺 Et surtout : l’IA peut-elle réellement remplacer un psychologue… ou seulement compléter le soin humain ?

🌱 Comment garder l’humain au cœur de la santé mentale ?


Entre innovations, questions éthiques et nouveaux usages, un épisode pour comprendre ce que l’IA change (ou ne change pas) dans notre rapport au soin — et ce qu’elle ne pourra jamais remplacer.


🎧 Un décryptage accessible, utile et ancré dans l’actualité, à retrouver chaque semaine dans L’Actu en Tête.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Bienvenue sur l'Actu en Tête.

  • Speaker #1

    Bonjour à toutes, bonjour à tous, bienvenue dans l'Actu en Tête, ce podcast hebdomadaire où nous tentons d'explorer l'actualité par le prisme de la santé mentale pour prendre de la distance, du discernement dans nos vies quotidiennes. Et chaque semaine, je retrouve avec joie mon complice Fabrice Pastor, neuropsychologue, formateur, conférencier, auteur, créateur de contenu. Bonjour Fabrice.

  • Speaker #0

    Et bonjour Didier, je rappelle que tu es journaliste, président du Psychodon et commissaire général du Forum National de la Santé Mentale. Je suis une nouvelle fois ravi de te retrouver pour ce nouvel épisode et bonjour également à toutes et à tous.

  • Speaker #1

    Fabrice, aujourd'hui on observe un sujet qui nous intéresse tous dans nos familles et qui peut aussi parfois nous inquiéter, mais qui a pris le devant de la scène, c'est l'intelligence artificielle. On en parle partout, dans les familles, je disais, dans les écoles. à l'hôpital, dans les médias. On va se poser une question en lien avec le cœur de notre podcast. Quels sont les bénéfices et les risques de l'intelligence artificielle dans le champ, dans le domaine de la santé mentale ? Le bénéfice-risque, comme en médecine.

  • Speaker #0

    Oui, c'est ça. Alors, c'est sûr que c'est un sujet qu'on ne va pas épuiser en un seul podcast, évidemment. On va juste aujourd'hui proposer quelques clés de lecture et surtout des pistes pour essayer, encore une fois, et c'est le but de ce podcast, d'y réfléchir autrement. Parce que, d'ailleurs, un petit peu toutes les promesses de l'IA, on peut aussi parfois se demander ce que devient notre rapport à ce qui nous intéresse, la souffrance, la santé mentale, l'écoute quand une IA va s'en mêler.

  • Speaker #1

    Est-ce que tu penses, Fabrice, que, au regard de l'étude publiée cette année aux Etats-Unis, un essai clinique sur le chatbot de thérapie qui est baptisé Therabot, en français, le résultat des étudiants anxieux qui allaient un peu mieux après quelques semaines d'échange. Alors, est-ce qu'on soit se dire, est-ce que, vraisemblablement, il est raisonnable de penser que l'IA peut remplacer le psy ?

  • Speaker #0

    Là, c'est la grande et vaste question. Oui, c'est intéressant, mais attention parce qu'il peut y avoir effectivement une amélioration modeste, on va dire, dans un protocole. Mais ça peut pas dire non plus qu'on a trouvé le psychologue, le psychiatre pas cher du futur. Enfin, je dirais pour l'instant, parce que ce sont des outils qui évoluent tellement vite qu'à ce jour, il me semble que ce ne soit pas le cas. Mais on verra dans l'avenir. Avant de parler de ce psy virtuel, juste on rappelle quelques mots. D'où vient l'IA ? Tout premier programme qui date de 1956 au Dartmouth College avec MacCarty et Minsky. Quelques années plus tard, un programme qui a marqué les esprits, c'était le programme ELISA qui a été créé en 1966. C'était un programme qui simulait un thérapeute. C'était simple, mais certains utilisateurs avaient déjà l'impression qu'une machine les comprenait. Aujourd'hui, Chad GPT, Claude, Gemini, bref, plein de chatbots qui peuvent nous offrir une écoute 24h sur 24 en un instant, qui peuvent rappeler des exercices de respiration, qui peuvent proposer plein de choses, plein de prises en charge, entre guillemets. Mais bon, il n'y a pas de réelle empathie, il n'y a pas d'émotion. Il n'y a pas de capacité à comprendre ce qu'est la détresse humaine, dirons-nous.

  • Speaker #1

    Comme neuropsychologue, Fabrice, ce que tu nous dis, c'est que l'IA, c'est un peu comme un dictionnaire des émotions. Ça donne des définitions, mais ça ne peut pas prendre en compte le vécu de la personne. Nous sommes des êtres sociaux, des êtres de relations intimes.

  • Speaker #0

    Oui, en quelque sorte. Et même pire, ça peut même donner l'illusion d'une compréhension. C'est ce qu'on appelle d'ailleurs l'effet ELISA. qu'on avait déjà observé dans les années 60, où des patients étaient persuadés, étaient convaincus que l'ordinateur les comprenait. Alors qu'en réalité, il ne faisait que reformuler. Alors on n'est pas loin de l'effet Barnum, l'effet Barnum bien cognitif très connu. J'aime bien quand je présente l'effet Barnum parler un petit peu de l'horoscope, c'est-à-dire qu'en gros, plus on va vous donner une image de vous, une description de votre personnalité qui va être floue, et plus vous allez avoir le sentiment qu'elle vous correspond parfaitement. Ça c'est l'effet Barnum.

  • Speaker #1

    Est-ce qu'on peut se dire, sans être recto, Trop grade que l'IA, ça peut être dangereux pour la santé mentale.

  • Speaker #0

    Ça peut être dangereux si la personne en crise, qui est en détresse psychologique, confond un script automatisé avec une vraie oreille humaine, parce qu'elle peut s'enfermer dans une fausse relation thérapeutique. D'ailleurs, il faut aussi parler de la qualité du prompt. Le prompt, c'est l'information, l'ordre qu'on envoie Ausha. La justesse de la question, du prompt, va influencer énormément la réponse. Quelqu'un qui est en détresse, peut formuler une demande qui va être confuse, qui peut être ambiguë, voire trop brouillonne, et l'IA va y répondre de manière tout aussi imprécise. Par contre, évidemment, le thérapeute humain, un temps soit peu expérimenté, évidemment, va reformuler, va ajuster, alors qu'une IA, non.

  • Speaker #1

    Et puis, ne va pas rentrer dans le champ de la relation émotionnelle avec tous les vecteurs de la communication. Il n'y a pas le langage, il n'y a pas le sourire, le regard. la morphopsychologie qui se joue lors des séances. Est-ce à dire que l'intelligence artificielle est plutôt au service des psys que l'inverse ? On va dire les choses franchement. Depuis un an, on voit de partout des déclarations très enthousiastes. L'IA va sauver notre pauvre psychiatrie. L'IA va réduire la charge des soignants. L'IA va compenser le manque de professionnels. Parfois, même des fédérations, comme la Fédération hospitalière de France, publie un document cet été pour affirmer que l'IA peut même dégager du temps au personnel soignant. Alors qu'on vit dans un pays où trouver un psychiatre révèle du parcours du combattant, évidemment, ses perspectives, ses espoirs emballent certains. Mais Fabrice, toi qui les observes de près, est-ce que tu crois que ces promesses, elles tiennent réellement debout ?

  • Speaker #0

    Alors, il y a certaines parties du discours qui tiennent, c'est vrai. Il y en a d'autres, par contre, qui sont fausses. Certes, l'IA... peut analyser des milliers, des millions de données médicales en quelques secondes. Elle peut repérer des signaux faibles dans l'évolution d'une dépression ou proposer des alertes de rechute, croiser des variables que le clinicien ne peut pas traiter seul. Et je parle ici des IA généralistes, pas de dispositifs qui pourraient être médicaux et certifiés. Alors c'est super utile, c'est même indispensable aujourd'hui pour les médecins de terrain et surtout en psychiatrie. Après, l'efficacité technique n'a rien à voir avec la qualité du soin.

  • Speaker #1

    Est-ce qu'on peut dire, Fabrice, qu'une IA peut annoncer à un patient qu'il risque une rechute, mais ne peut pas l'aider à comprendre pourquoi il se sent mal ?

  • Speaker #0

    Exactement, et je le redis clairement, dans des conditions strictement encadrées et supervisées, certains Ausha montrent des bénéfices. donc le problème c'est pas tant l'outil en soi, c'est ce qu'on en fait, c'est un peu comme pour tout. Donc, le chat peut repérer un motif, un fonctionnement particulier, par exemple dans ton sommeil, si tu utilises une appli, dans ta fréquence cardiaque, si tu portes une montre connectée, mais elle ne va pas comprendre ton histoire, elle ne va pas comprendre tes contradictions, la façon dont tu traverses un événement. Et là où la situation devient préoccupante, c'est que cette efficacité technique donne parfois au décideur ... l'impression que l'on peut remplacer la relation humaine justement par une IA.

  • Speaker #1

    Je sens venir la polémique parce que derrière les discours sur le gain de temps, on entend parfois autre chose. On va commencer à penser qu'il est possible de remplacer le manque de thérapeutes par des machines.

  • Speaker #0

    Pourquoi payer un professionnel quand un assistant numérique peut traiter les premières demandes ? On pourrait se poser la question. Il y a certaines institutions qui commencent à le dire d'ailleurs même un peu en filigrane. Ce raisonnement ouvre la voie aujourd'hui à une psychiatrie, une psychologie qui est un peu low cost, qui va être pilotée par une logique comptable. D'ailleurs, j'ai appris que certaines assurances américaines testent des chatbots à ce sujet. Tu en penses quoi ?

  • Speaker #1

    Je serais comme toi, je dis, attendons pour voir. Tu as raison, dans un contexte où nous cherchons des économies par... la tentation grandit, et même quand on en discute, même avec des responsables d'établissement, la tentation grandit d'installer des assistants conversationnels pour gérer des premiers contacts avec l'anxiété légère de certains patients, pour répondre à des questions à des familles, pour orienter des jeunes en détresse vers des protocoles qui seraient automatisés. Bref, une première ligne d'accueil qui serait robotisée. on remplace la performance qui est qu'on m'attribuait à la permanence téléphonique par un chat qui dit je comprends votre inquiétude, sauf qu'en fait, le risque Fabrice, c'est que il faut bien qu'on sache qu'il ne comprend rien en fait.

  • Speaker #0

    Oui, c'est ça. Et une IA peut aussi très bien minimiser un... Symptôme qui pourrait être grave. Elle peut mal interpréter une phrase ou quelque chose. Et donc, elle peut conclure qu'une situation ne nécessite pas de prise en charge particulière. On l'a vu, notamment dans des tests indépendants. Et si un hôpital ou une plateforme particulière s'appuie sur ce tri automatisé, plusieurs personnes vulnérables pourraient clairement passer entre les mailles du filet.

  • Speaker #1

    En fait, Fabrice, un outil reste un outil, même s'il est de plus en plus performant. Et un être humain, ça reste un être humain. Un outil est au service de l'humain qui l'a constitué. Et l'humain, il est quand même dans une complexité qui n'a rien à voir avec un outil. Et au fond, tout cela, ça rejoint une question sociale dans le champ politique. parce que l'IA devient en fait un prétexte pour masquer le manque de... moyens humains, le manque de thérapeutes sur les territoires, par exemple.

  • Speaker #0

    Oui, c'est pour ça que ce débat devrait, à mon sens, sortir du cercle des experts pour entrer dans le débat public. On l'a dit, l'IA peut aider le clinicien parce qu'elle va accélérer l'accès aux données, elle va faciliter les choses, faciliter le repérage, elle peut faciliter le diagnostic, elle peut même simplifier la coordination des suivis, elle peut créer des protocoles de soins, elle peut créer des accompagnements, elle peut créer énormément de choses. Il faut donc l'utiliser à bon escient. mais il ne faut pas que ce soit la solution par défaut.

  • Speaker #1

    Oui, et lorsque c'est encadré par des psychiatres avec une grande proximité en ce qui concerne l'alliance thérapeutique, ça peut être très bien fait. Je pense au lauréat de Transmental de cette année qui a développé une clinique digitale qui est aussi en lien avec un chat et qui s'appelle Psy4Kids. C'est une belle initiative dans le champ de l'IA. mais derrière avec un vrai projet médical et qui est limité, qui ne remplace pas la clinique du professionnel de santé. Parce que l'IA, elle ne permet pas de rester plus de dix minutes avec un patient en crise. Elle ne sent pas qu'un adolescent cache quelque chose derrière son comportement, derrière son langage. L'IA ne voit pas la micro-expression ici ou là. de la morphopsychologie ou même d'un mot, d'une parole ou d'un geste qui traduit un malaise. Elle n'entend pas une respiration tremblée.

  • Speaker #0

    Elle n'a pas de responsabilité clinique. Elle ne porte pas non plus les conséquences de ce qu'elle propose. Elle n'est pas engagée dans la personne. Et finalement, on pourrait se dire que cette absence de responsabilité soulève des questions éthiques. J'ajoute aussi quelque chose qu'on oublie souvent, c'est l'absence de contact réel, voire physique, qui est pourtant essentiel dans certaines prises en charge. Et aussi le non-verbal. L'IA n'analyse, à mon sens, à ma connaissance, pas le non-verbal. Alors, si j'ai dernièrement participé, observé un nouveau chatbot, en fait, qui observe certaines consultations et qui analyse le comportement non-verbal du patient, ça s'appelle Marco, je trouve ça particulièrement intéressant. Ça pourra intéresser éventuellement certains professionnels de santé. Bref. Tout ça pour dire qu'à ce jour, pour l'instant, aucune machine ne peut remplacer une présence.

  • Speaker #1

    Un regard, une posture, et c'est presque rassurant Fabrice, parce que la relation thérapeutique, l'alliance thérapeutique entre une personne, un patient et un professionnel de santé mentale, c'est une aventure humaine qui dépasse bien sûr la relation entre un outil et une personne. Et parfois, on se doit de l'aborder. L'intelligence artificielle déraille lorsque l'usage n'est plus raisonnable. Il y a des situations où ça se passe mal. Par exemple, l'opinion publique a été marquée par une affaire aux États-Unis où des parents accusent l'IA, un tchat, d'avoir renforcé le désespoir de leur fils de 16 ans qui est mort par suicide. Et on se pose évidemment la question directement, est-ce que l'intelligence artificielle... peut aller jusqu'à mettre en danger de mort une personne.

  • Speaker #0

    Oui, elle peut, évidemment. Et pas seulement en théorie. On a des tests indépendants où certains chatbots ont validé des idées délirantes soutenues des pensées désorganisées. Des chatbots qui ont répondu à des messages suicidaires avec des formulations assez ambiguës. Il y a d'ailleurs des chercheurs qui parlent de folie à deux technologiques. Alors, qu'est-ce qui se passe ? L'utilisateur, en gros, formule une détresse. L'IA va reformuler, sans apporter de nuances. l'utilisateur interprète cette reformulation comme une sorte de caution. Cette boucle amplifie la souffrance et ça ne la pèse pas. Donc, voilà, l'IA ne va pas créer un mal-être, mais elle peut l'aggraver. Elle ne va pas l'inventer.

  • Speaker #1

    Alors, il y a aussi une autre... Une interpellation dont on ne parle peut-être pas vraiment, c'est quand l'IA ne se trompe pas, mais qu'elle influence. Ces outils ne se contentent pas de répondre, mais ils orientent des choix, ils proposent des interpellations, ils suggèrent des pistes. Et là, une personne vulnérable peut accorder peut-être une confiance aveugle à ce que lui affirme l'intelligence artificielle.

  • Speaker #0

    Il y a plusieurs travaux qui montrent... que des utilisateurs suivent les recommandations d'une IA même lorsqu'elles contredisent leur propre bon sens. Une sorte de biais d'autorité technologique.

  • Speaker #1

    C'est vraiment l'inverse de notre projet en faisant ce podcast Actu en tête. Ne pas prendre ce qui est un faux comme un faux ou ce qui est un toxe comme un toxe, mais tout de suite se dire qu'est-ce qu'on veut dire, pourquoi on me dit ça et est-ce qu'ailleurs on dit la même chose. Comparer l'information parce que le danger ne vient pas seulement d'une erreur, il peut aussi venir du pouvoir « invisible » qui a été embarqué dans l'outil.

  • Speaker #0

    Oui, et j'ajoute un autre facteur, nos fameux biais cognitifs. Une personne qui cherche une confirmation trouve souvent dans l'IA une réplique qui conforte son idée, parce que le modèle reste sensible à la formulation.

  • Speaker #1

    C'est très fort ce que tu dis. Au fond, la question n'est plus « l'IA est-elle exacte ? » mais « l'IA impose-t-elle une façon de se sentir de ? » de ressentir en fait, et de participer aujourd'hui à un marché de la détresse psychique. Il existe une question que beaucoup évitent, c'est-à-dire que derrière l'IA, il y a de l'argent. Qui gagne de l'argent avec ses outils, avec l'IA ? Parce que c'est un marché énorme, qui fait à la fois rêver, qui est plein de perspectives, et qui est sur le champ de la santé mentale. ça Ça attire les méchants, ça attire les gentils, les géants du numérique, les coachs. C'est un gigantesque basarlande.

  • Speaker #0

    Oui, ça, c'est aussi un autre angle à traiter. Il y a des entreprises qui promettent une sorte d'accompagnement émotionnel ou psychologique ou thérapeutique personnalisé. Par contre, derrière, elles collectent des données. Des données qui sont sensibles. Votre sommeil, votre stress, vos ruminations, vos habitudes de vie, vos moments de crise. Toutes ces informations peuvent vraiment intéresser des personnes et des entreprises. qui n'ont rien à faire dans cet espace.

  • Speaker #1

    Et là, c'est un vrai risque démocratique parce qu'un outil comme l'IA, présenté alors comme un usage thérapeutique, peut devenir un usage commercial à des fins mercantiles ou marketing, ou pire, devenir un outil d'observation, voire de tris sociologique.

  • Speaker #0

    Oui, ça c'est absolument clair. Si la détresse psychique, psychologique devient une sorte de levier économique, Alors là, on... On est dans un modèle où la souffrance va rapporter de l'argent. Ça, ce n'est pas acceptable. Le soin doit rester dans un espace protégé. Et si les IA fragilisent cette frontière, ça va créer un danger qui ne va pas seulement être individuel, mais qui va être totalement sociétal.

  • Speaker #1

    Ce qu'on explore là, c'est que l'intelligence artificielle, c'est sûrement un bel outil de façon pragmatique, mais qui ne menace pas seulement la relation thérapeutique parce qu'il ne s'agit pas d'une réalliance de soins entre deux humains. mais qu'elle menace aussi la manière dont une société traite la vulnérabilité. Elle menace la vision de l'humain, la vision vivante de notre humanité.

  • Speaker #0

    C'est ça, ce sont de formidables outils. Quand je présente les IA, j'explique que c'est vraiment un outil absolument formidable. C'est digne de la révolution de l'Internet. Mais par contre, il ne faut pas être naïf avec l'outil.

  • Speaker #1

    Il s'agit à t'entendre, de s'interroger de qui, comment, euh doit-on faire pour poser des limites ? On a décrit les bénéfices possibles de l'IA dans le champ de la santé mentale. On a touché du doigt des limites et critiqué presque des enjeux économiques. Maintenant, la question des limites, elle se pose. On a l'impression, je le disais tout à l'heure, que c'est un peu le grand bazar ou le Far West. Les entreprises avancent plus vite que la loi. Les hôpitaux tentent de s'adapter, les usagers se débrouillent. L'État hésite, alors qui prend la main pour encadrer l'IA dans le champ de la santé mentale ?

  • Speaker #0

    La question reste absolument centrale, oui.

  • Speaker #1

    Il y a quand même une observation qui est celle de l'Europe, et parfois elle nous est utile, et une fois n'est pas toujours coutume, si je voulais être polémique. Mais enfin, l'Europe essaie quand même de structurer un cadre avec un dispositif, l'AIE Act, adopté en 2024, et qui fixe des règles strictes. Pas de notation sociale, pas d'exploitation de la réunirabilité, transparence obligatoire et contrôle humain pour les IA utilisés dans des domaines sensibles, dont la santé mentale. Chaque État doit surveiller l'application. Et en France, c'est la CNIL, la Commission nationale de l'information et des libertés, qui en a la charge. Et cette mise en œuvre de ce dispositif d'encadrement sera progressive jusqu'en 2026. L'objectif est clair, c'est éviter que l'IA, ces outils, agissent sans aucun... garde-fous.

  • Speaker #0

    Oui, la Commission nationale informatique et liberté, tout à fait. C'est un cadre qui est effectivement indispensable, mais qui décide pas de la manière dont l'IA sera utilisée dans ton cabinet, dans un hôpital ou même à l'école. La loi, elle va tracer des limites, mais elle va pas créer la relation de soins. Donc, grosso modo, si on regarde le terrain, on voit qu'il y a, globalement, il y a trois acteurs. Il y a toutes les instances étatiques, il y a les professionnels de terrain et il y a les plateformes technologiques. Pour l'instant, on a le sentiment qu'aucun ne joue pleinement son rôle. L'État voit l'IA comme une super opportunité. Les soignants l'utilisent aussi comme une super opportunité, mais observent aussi les risques. Et les plateformes, elles suivent leur logique propre. Et donc, on est face à un déséquilibre qui ouvre une brèche, parce que pour y répondre, chacun doit monter en compétences. Dès l'école, il faut apprendre, il faut former les enfants à utiliser cet outil. C'est une responsabilité collective.

  • Speaker #1

    Les politiques, évidemment, ils ont un petit peu de mal à suivre, et en particulièrement en France, dans le contexte que nous traversons ces derniers mois, des députés en off, vraisemblablement, même ceux qui siègent dans la commission parlementaire santé mentale, ils ne savent pas trop ce qu'il faudrait faire et comment légiférer. La technologie va évidemment beaucoup plus vite que les dispositifs qui seraient potentiellement à disposition de mise en œuvre. par des réglementations. Et puis, de toute façon, en ce moment, ils ont du mal à se concerter. Bon, ils craignent aussi de freiner l'innovation. Pendant ce temps, des millions de personnes et de plus en plus nombreuses utilisent l'IA sans vraiment un cadre, un périmètre clair, un encadrement spécifique.

  • Speaker #0

    Oui, c'est vrai qu'il n'y a pas de choses claires qui sont pensées. Il n'y a pas de choses claires qui sont posées. Mais on parle quand même ici de santé mentale. n'est pas un sujet... banal. Alors, dans le commerce, dans la mobilité, tu peux perdre de l'argent, mais dans la détresse psychologique, là, tu risques une vie humaine. Donc, la première responsabilité, à mon sens, ça l'accompte surtout à l'État. C'est l'État qui doit définir, définir une ligne rouge, qui doit éventuellement interdire, je ne sais pas, certains usages sans supervision, et qui doit aussi imposer une transparence. Je le répète, c'est un outil qui touche aussi aux émotions. où la santé mentale doit être traitée comme un dispositif sensible. Ce n'est pas juste une application grand public.

  • Speaker #1

    Il faut espérer que dans les échéances à venir, ce sujet sera pris en compte. Les professionnels du soin aussi doivent se positionner, c'est peut-être absolument partie prenante, et faire des propositions. Certains psychiatres nous disent qu'ils voient l'IA arriver comme une vague qui risque de les contourner. D'autres se taisent pour ne pas passer pour des ringards des antithèques. d'autres experts un gain de temps, et on verra un peu plus tard, ce n'est pas de nature à être très organisé.

  • Speaker #0

    De toute façon, les plateformes ne vont pas s'autoréguler par altruisme. Déjà, s'il faut partir de cette idée, elles vont réagir, à mon sens, seulement quand la loi les y obligera. Il y a des choses, il y a des avancées, il y a des choses qui essaient de légiférer. On pourrait penser que l'IA fera du bien parce qu'elle sera mieux que rien. Sauf que mieux que rien, ce n'est pas une politique publique.

  • Speaker #1

    Alors, pour conclure, Fabrice, et comme toujours, et c'est ce qu'on répète à chacun de ces numéros dans l'actu en tête, il y a l'acteur essentiel, vous, vous, le citoyen, vous pouvez, et on le dit à chaque début d'épisode, prendre en charge le sujet du discernement, en parler en famille, partager vos émotions, et puis vous dire ça, j'y vais, ça, j'y vais pas, je savais pas que j'y accédais, mais... qu'est-ce que ça signifie pour moi ? Bref, être un acteur, comme un acteur thérapeutique, c'est-à-dire utiliser l'IA comme un outil et non comme un soignant à qui on donne un blanc-seing.

  • Speaker #0

    Oui, je pense que c'est nous qui devons tenir la barre et pas la machine. Je pense que l'État doit protéger, je pense que les soignants doivent orienter et les plateformes doivent rendre des comptes. Et puis aussi les citoyens, comme tu l'as dit. qui doivent savoir ce qu'ils acceptent.

  • Speaker #1

    Nous allons, sur ce sujet, nous arrêter là pour aujourd'hui. L'IA promet beaucoup, on pourrait en parler davantage encore. L'IA nous inquiète parfois, mais elle ne remplacera jamais ce qui est au cœur du soin, au cœur de nos spécificités d'êtres sociaux, la présence, la responsabilité, le regard, la chaleur humaine dans la relation. Merci à toutes et à tous de nous avoir écoutés. Merci Fabrice.

  • Speaker #0

    Eh bien merci, et on se retrouve donc très vite. pour un nouvel épisode de l'actu en tête. Prenez bien soin de vous et à bientôt.

Share

Embed

You may also like

Description

L’intelligence artificielle s’invite partout dans notre quotidien… et désormais jusque dans nos conversations les plus intimes. Peut-on vraiment parler de santé mentale avec une IA ? Est-ce un simple outil, un compagnon, un miroir… un risque… ou peut-elle remplacer un psy ?


Dans cet épisode de L’Actu en Tête, Didier Meillerand et Fabrice Pastor décryptent le rôle grandissant de l’IA dans l’accompagnement psychologique :

🤖 Que peut faire l’IA aujourd’hui pour soutenir les personnes en difficulté ?

🧠 Pourquoi sommes-nous nombreux à chercher du réconfort ou des réponses auprès d’un assistant virtuel ?

⚠️ Quels risques, quelles limites, quelles dérives ?

🩺 Et surtout : l’IA peut-elle réellement remplacer un psychologue… ou seulement compléter le soin humain ?

🌱 Comment garder l’humain au cœur de la santé mentale ?


Entre innovations, questions éthiques et nouveaux usages, un épisode pour comprendre ce que l’IA change (ou ne change pas) dans notre rapport au soin — et ce qu’elle ne pourra jamais remplacer.


🎧 Un décryptage accessible, utile et ancré dans l’actualité, à retrouver chaque semaine dans L’Actu en Tête.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Bienvenue sur l'Actu en Tête.

  • Speaker #1

    Bonjour à toutes, bonjour à tous, bienvenue dans l'Actu en Tête, ce podcast hebdomadaire où nous tentons d'explorer l'actualité par le prisme de la santé mentale pour prendre de la distance, du discernement dans nos vies quotidiennes. Et chaque semaine, je retrouve avec joie mon complice Fabrice Pastor, neuropsychologue, formateur, conférencier, auteur, créateur de contenu. Bonjour Fabrice.

  • Speaker #0

    Et bonjour Didier, je rappelle que tu es journaliste, président du Psychodon et commissaire général du Forum National de la Santé Mentale. Je suis une nouvelle fois ravi de te retrouver pour ce nouvel épisode et bonjour également à toutes et à tous.

  • Speaker #1

    Fabrice, aujourd'hui on observe un sujet qui nous intéresse tous dans nos familles et qui peut aussi parfois nous inquiéter, mais qui a pris le devant de la scène, c'est l'intelligence artificielle. On en parle partout, dans les familles, je disais, dans les écoles. à l'hôpital, dans les médias. On va se poser une question en lien avec le cœur de notre podcast. Quels sont les bénéfices et les risques de l'intelligence artificielle dans le champ, dans le domaine de la santé mentale ? Le bénéfice-risque, comme en médecine.

  • Speaker #0

    Oui, c'est ça. Alors, c'est sûr que c'est un sujet qu'on ne va pas épuiser en un seul podcast, évidemment. On va juste aujourd'hui proposer quelques clés de lecture et surtout des pistes pour essayer, encore une fois, et c'est le but de ce podcast, d'y réfléchir autrement. Parce que, d'ailleurs, un petit peu toutes les promesses de l'IA, on peut aussi parfois se demander ce que devient notre rapport à ce qui nous intéresse, la souffrance, la santé mentale, l'écoute quand une IA va s'en mêler.

  • Speaker #1

    Est-ce que tu penses, Fabrice, que, au regard de l'étude publiée cette année aux Etats-Unis, un essai clinique sur le chatbot de thérapie qui est baptisé Therabot, en français, le résultat des étudiants anxieux qui allaient un peu mieux après quelques semaines d'échange. Alors, est-ce qu'on soit se dire, est-ce que, vraisemblablement, il est raisonnable de penser que l'IA peut remplacer le psy ?

  • Speaker #0

    Là, c'est la grande et vaste question. Oui, c'est intéressant, mais attention parce qu'il peut y avoir effectivement une amélioration modeste, on va dire, dans un protocole. Mais ça peut pas dire non plus qu'on a trouvé le psychologue, le psychiatre pas cher du futur. Enfin, je dirais pour l'instant, parce que ce sont des outils qui évoluent tellement vite qu'à ce jour, il me semble que ce ne soit pas le cas. Mais on verra dans l'avenir. Avant de parler de ce psy virtuel, juste on rappelle quelques mots. D'où vient l'IA ? Tout premier programme qui date de 1956 au Dartmouth College avec MacCarty et Minsky. Quelques années plus tard, un programme qui a marqué les esprits, c'était le programme ELISA qui a été créé en 1966. C'était un programme qui simulait un thérapeute. C'était simple, mais certains utilisateurs avaient déjà l'impression qu'une machine les comprenait. Aujourd'hui, Chad GPT, Claude, Gemini, bref, plein de chatbots qui peuvent nous offrir une écoute 24h sur 24 en un instant, qui peuvent rappeler des exercices de respiration, qui peuvent proposer plein de choses, plein de prises en charge, entre guillemets. Mais bon, il n'y a pas de réelle empathie, il n'y a pas d'émotion. Il n'y a pas de capacité à comprendre ce qu'est la détresse humaine, dirons-nous.

  • Speaker #1

    Comme neuropsychologue, Fabrice, ce que tu nous dis, c'est que l'IA, c'est un peu comme un dictionnaire des émotions. Ça donne des définitions, mais ça ne peut pas prendre en compte le vécu de la personne. Nous sommes des êtres sociaux, des êtres de relations intimes.

  • Speaker #0

    Oui, en quelque sorte. Et même pire, ça peut même donner l'illusion d'une compréhension. C'est ce qu'on appelle d'ailleurs l'effet ELISA. qu'on avait déjà observé dans les années 60, où des patients étaient persuadés, étaient convaincus que l'ordinateur les comprenait. Alors qu'en réalité, il ne faisait que reformuler. Alors on n'est pas loin de l'effet Barnum, l'effet Barnum bien cognitif très connu. J'aime bien quand je présente l'effet Barnum parler un petit peu de l'horoscope, c'est-à-dire qu'en gros, plus on va vous donner une image de vous, une description de votre personnalité qui va être floue, et plus vous allez avoir le sentiment qu'elle vous correspond parfaitement. Ça c'est l'effet Barnum.

  • Speaker #1

    Est-ce qu'on peut se dire, sans être recto, Trop grade que l'IA, ça peut être dangereux pour la santé mentale.

  • Speaker #0

    Ça peut être dangereux si la personne en crise, qui est en détresse psychologique, confond un script automatisé avec une vraie oreille humaine, parce qu'elle peut s'enfermer dans une fausse relation thérapeutique. D'ailleurs, il faut aussi parler de la qualité du prompt. Le prompt, c'est l'information, l'ordre qu'on envoie Ausha. La justesse de la question, du prompt, va influencer énormément la réponse. Quelqu'un qui est en détresse, peut formuler une demande qui va être confuse, qui peut être ambiguë, voire trop brouillonne, et l'IA va y répondre de manière tout aussi imprécise. Par contre, évidemment, le thérapeute humain, un temps soit peu expérimenté, évidemment, va reformuler, va ajuster, alors qu'une IA, non.

  • Speaker #1

    Et puis, ne va pas rentrer dans le champ de la relation émotionnelle avec tous les vecteurs de la communication. Il n'y a pas le langage, il n'y a pas le sourire, le regard. la morphopsychologie qui se joue lors des séances. Est-ce à dire que l'intelligence artificielle est plutôt au service des psys que l'inverse ? On va dire les choses franchement. Depuis un an, on voit de partout des déclarations très enthousiastes. L'IA va sauver notre pauvre psychiatrie. L'IA va réduire la charge des soignants. L'IA va compenser le manque de professionnels. Parfois, même des fédérations, comme la Fédération hospitalière de France, publie un document cet été pour affirmer que l'IA peut même dégager du temps au personnel soignant. Alors qu'on vit dans un pays où trouver un psychiatre révèle du parcours du combattant, évidemment, ses perspectives, ses espoirs emballent certains. Mais Fabrice, toi qui les observes de près, est-ce que tu crois que ces promesses, elles tiennent réellement debout ?

  • Speaker #0

    Alors, il y a certaines parties du discours qui tiennent, c'est vrai. Il y en a d'autres, par contre, qui sont fausses. Certes, l'IA... peut analyser des milliers, des millions de données médicales en quelques secondes. Elle peut repérer des signaux faibles dans l'évolution d'une dépression ou proposer des alertes de rechute, croiser des variables que le clinicien ne peut pas traiter seul. Et je parle ici des IA généralistes, pas de dispositifs qui pourraient être médicaux et certifiés. Alors c'est super utile, c'est même indispensable aujourd'hui pour les médecins de terrain et surtout en psychiatrie. Après, l'efficacité technique n'a rien à voir avec la qualité du soin.

  • Speaker #1

    Est-ce qu'on peut dire, Fabrice, qu'une IA peut annoncer à un patient qu'il risque une rechute, mais ne peut pas l'aider à comprendre pourquoi il se sent mal ?

  • Speaker #0

    Exactement, et je le redis clairement, dans des conditions strictement encadrées et supervisées, certains Ausha montrent des bénéfices. donc le problème c'est pas tant l'outil en soi, c'est ce qu'on en fait, c'est un peu comme pour tout. Donc, le chat peut repérer un motif, un fonctionnement particulier, par exemple dans ton sommeil, si tu utilises une appli, dans ta fréquence cardiaque, si tu portes une montre connectée, mais elle ne va pas comprendre ton histoire, elle ne va pas comprendre tes contradictions, la façon dont tu traverses un événement. Et là où la situation devient préoccupante, c'est que cette efficacité technique donne parfois au décideur ... l'impression que l'on peut remplacer la relation humaine justement par une IA.

  • Speaker #1

    Je sens venir la polémique parce que derrière les discours sur le gain de temps, on entend parfois autre chose. On va commencer à penser qu'il est possible de remplacer le manque de thérapeutes par des machines.

  • Speaker #0

    Pourquoi payer un professionnel quand un assistant numérique peut traiter les premières demandes ? On pourrait se poser la question. Il y a certaines institutions qui commencent à le dire d'ailleurs même un peu en filigrane. Ce raisonnement ouvre la voie aujourd'hui à une psychiatrie, une psychologie qui est un peu low cost, qui va être pilotée par une logique comptable. D'ailleurs, j'ai appris que certaines assurances américaines testent des chatbots à ce sujet. Tu en penses quoi ?

  • Speaker #1

    Je serais comme toi, je dis, attendons pour voir. Tu as raison, dans un contexte où nous cherchons des économies par... la tentation grandit, et même quand on en discute, même avec des responsables d'établissement, la tentation grandit d'installer des assistants conversationnels pour gérer des premiers contacts avec l'anxiété légère de certains patients, pour répondre à des questions à des familles, pour orienter des jeunes en détresse vers des protocoles qui seraient automatisés. Bref, une première ligne d'accueil qui serait robotisée. on remplace la performance qui est qu'on m'attribuait à la permanence téléphonique par un chat qui dit je comprends votre inquiétude, sauf qu'en fait, le risque Fabrice, c'est que il faut bien qu'on sache qu'il ne comprend rien en fait.

  • Speaker #0

    Oui, c'est ça. Et une IA peut aussi très bien minimiser un... Symptôme qui pourrait être grave. Elle peut mal interpréter une phrase ou quelque chose. Et donc, elle peut conclure qu'une situation ne nécessite pas de prise en charge particulière. On l'a vu, notamment dans des tests indépendants. Et si un hôpital ou une plateforme particulière s'appuie sur ce tri automatisé, plusieurs personnes vulnérables pourraient clairement passer entre les mailles du filet.

  • Speaker #1

    En fait, Fabrice, un outil reste un outil, même s'il est de plus en plus performant. Et un être humain, ça reste un être humain. Un outil est au service de l'humain qui l'a constitué. Et l'humain, il est quand même dans une complexité qui n'a rien à voir avec un outil. Et au fond, tout cela, ça rejoint une question sociale dans le champ politique. parce que l'IA devient en fait un prétexte pour masquer le manque de... moyens humains, le manque de thérapeutes sur les territoires, par exemple.

  • Speaker #0

    Oui, c'est pour ça que ce débat devrait, à mon sens, sortir du cercle des experts pour entrer dans le débat public. On l'a dit, l'IA peut aider le clinicien parce qu'elle va accélérer l'accès aux données, elle va faciliter les choses, faciliter le repérage, elle peut faciliter le diagnostic, elle peut même simplifier la coordination des suivis, elle peut créer des protocoles de soins, elle peut créer des accompagnements, elle peut créer énormément de choses. Il faut donc l'utiliser à bon escient. mais il ne faut pas que ce soit la solution par défaut.

  • Speaker #1

    Oui, et lorsque c'est encadré par des psychiatres avec une grande proximité en ce qui concerne l'alliance thérapeutique, ça peut être très bien fait. Je pense au lauréat de Transmental de cette année qui a développé une clinique digitale qui est aussi en lien avec un chat et qui s'appelle Psy4Kids. C'est une belle initiative dans le champ de l'IA. mais derrière avec un vrai projet médical et qui est limité, qui ne remplace pas la clinique du professionnel de santé. Parce que l'IA, elle ne permet pas de rester plus de dix minutes avec un patient en crise. Elle ne sent pas qu'un adolescent cache quelque chose derrière son comportement, derrière son langage. L'IA ne voit pas la micro-expression ici ou là. de la morphopsychologie ou même d'un mot, d'une parole ou d'un geste qui traduit un malaise. Elle n'entend pas une respiration tremblée.

  • Speaker #0

    Elle n'a pas de responsabilité clinique. Elle ne porte pas non plus les conséquences de ce qu'elle propose. Elle n'est pas engagée dans la personne. Et finalement, on pourrait se dire que cette absence de responsabilité soulève des questions éthiques. J'ajoute aussi quelque chose qu'on oublie souvent, c'est l'absence de contact réel, voire physique, qui est pourtant essentiel dans certaines prises en charge. Et aussi le non-verbal. L'IA n'analyse, à mon sens, à ma connaissance, pas le non-verbal. Alors, si j'ai dernièrement participé, observé un nouveau chatbot, en fait, qui observe certaines consultations et qui analyse le comportement non-verbal du patient, ça s'appelle Marco, je trouve ça particulièrement intéressant. Ça pourra intéresser éventuellement certains professionnels de santé. Bref. Tout ça pour dire qu'à ce jour, pour l'instant, aucune machine ne peut remplacer une présence.

  • Speaker #1

    Un regard, une posture, et c'est presque rassurant Fabrice, parce que la relation thérapeutique, l'alliance thérapeutique entre une personne, un patient et un professionnel de santé mentale, c'est une aventure humaine qui dépasse bien sûr la relation entre un outil et une personne. Et parfois, on se doit de l'aborder. L'intelligence artificielle déraille lorsque l'usage n'est plus raisonnable. Il y a des situations où ça se passe mal. Par exemple, l'opinion publique a été marquée par une affaire aux États-Unis où des parents accusent l'IA, un tchat, d'avoir renforcé le désespoir de leur fils de 16 ans qui est mort par suicide. Et on se pose évidemment la question directement, est-ce que l'intelligence artificielle... peut aller jusqu'à mettre en danger de mort une personne.

  • Speaker #0

    Oui, elle peut, évidemment. Et pas seulement en théorie. On a des tests indépendants où certains chatbots ont validé des idées délirantes soutenues des pensées désorganisées. Des chatbots qui ont répondu à des messages suicidaires avec des formulations assez ambiguës. Il y a d'ailleurs des chercheurs qui parlent de folie à deux technologiques. Alors, qu'est-ce qui se passe ? L'utilisateur, en gros, formule une détresse. L'IA va reformuler, sans apporter de nuances. l'utilisateur interprète cette reformulation comme une sorte de caution. Cette boucle amplifie la souffrance et ça ne la pèse pas. Donc, voilà, l'IA ne va pas créer un mal-être, mais elle peut l'aggraver. Elle ne va pas l'inventer.

  • Speaker #1

    Alors, il y a aussi une autre... Une interpellation dont on ne parle peut-être pas vraiment, c'est quand l'IA ne se trompe pas, mais qu'elle influence. Ces outils ne se contentent pas de répondre, mais ils orientent des choix, ils proposent des interpellations, ils suggèrent des pistes. Et là, une personne vulnérable peut accorder peut-être une confiance aveugle à ce que lui affirme l'intelligence artificielle.

  • Speaker #0

    Il y a plusieurs travaux qui montrent... que des utilisateurs suivent les recommandations d'une IA même lorsqu'elles contredisent leur propre bon sens. Une sorte de biais d'autorité technologique.

  • Speaker #1

    C'est vraiment l'inverse de notre projet en faisant ce podcast Actu en tête. Ne pas prendre ce qui est un faux comme un faux ou ce qui est un toxe comme un toxe, mais tout de suite se dire qu'est-ce qu'on veut dire, pourquoi on me dit ça et est-ce qu'ailleurs on dit la même chose. Comparer l'information parce que le danger ne vient pas seulement d'une erreur, il peut aussi venir du pouvoir « invisible » qui a été embarqué dans l'outil.

  • Speaker #0

    Oui, et j'ajoute un autre facteur, nos fameux biais cognitifs. Une personne qui cherche une confirmation trouve souvent dans l'IA une réplique qui conforte son idée, parce que le modèle reste sensible à la formulation.

  • Speaker #1

    C'est très fort ce que tu dis. Au fond, la question n'est plus « l'IA est-elle exacte ? » mais « l'IA impose-t-elle une façon de se sentir de ? » de ressentir en fait, et de participer aujourd'hui à un marché de la détresse psychique. Il existe une question que beaucoup évitent, c'est-à-dire que derrière l'IA, il y a de l'argent. Qui gagne de l'argent avec ses outils, avec l'IA ? Parce que c'est un marché énorme, qui fait à la fois rêver, qui est plein de perspectives, et qui est sur le champ de la santé mentale. ça Ça attire les méchants, ça attire les gentils, les géants du numérique, les coachs. C'est un gigantesque basarlande.

  • Speaker #0

    Oui, ça, c'est aussi un autre angle à traiter. Il y a des entreprises qui promettent une sorte d'accompagnement émotionnel ou psychologique ou thérapeutique personnalisé. Par contre, derrière, elles collectent des données. Des données qui sont sensibles. Votre sommeil, votre stress, vos ruminations, vos habitudes de vie, vos moments de crise. Toutes ces informations peuvent vraiment intéresser des personnes et des entreprises. qui n'ont rien à faire dans cet espace.

  • Speaker #1

    Et là, c'est un vrai risque démocratique parce qu'un outil comme l'IA, présenté alors comme un usage thérapeutique, peut devenir un usage commercial à des fins mercantiles ou marketing, ou pire, devenir un outil d'observation, voire de tris sociologique.

  • Speaker #0

    Oui, ça c'est absolument clair. Si la détresse psychique, psychologique devient une sorte de levier économique, Alors là, on... On est dans un modèle où la souffrance va rapporter de l'argent. Ça, ce n'est pas acceptable. Le soin doit rester dans un espace protégé. Et si les IA fragilisent cette frontière, ça va créer un danger qui ne va pas seulement être individuel, mais qui va être totalement sociétal.

  • Speaker #1

    Ce qu'on explore là, c'est que l'intelligence artificielle, c'est sûrement un bel outil de façon pragmatique, mais qui ne menace pas seulement la relation thérapeutique parce qu'il ne s'agit pas d'une réalliance de soins entre deux humains. mais qu'elle menace aussi la manière dont une société traite la vulnérabilité. Elle menace la vision de l'humain, la vision vivante de notre humanité.

  • Speaker #0

    C'est ça, ce sont de formidables outils. Quand je présente les IA, j'explique que c'est vraiment un outil absolument formidable. C'est digne de la révolution de l'Internet. Mais par contre, il ne faut pas être naïf avec l'outil.

  • Speaker #1

    Il s'agit à t'entendre, de s'interroger de qui, comment, euh doit-on faire pour poser des limites ? On a décrit les bénéfices possibles de l'IA dans le champ de la santé mentale. On a touché du doigt des limites et critiqué presque des enjeux économiques. Maintenant, la question des limites, elle se pose. On a l'impression, je le disais tout à l'heure, que c'est un peu le grand bazar ou le Far West. Les entreprises avancent plus vite que la loi. Les hôpitaux tentent de s'adapter, les usagers se débrouillent. L'État hésite, alors qui prend la main pour encadrer l'IA dans le champ de la santé mentale ?

  • Speaker #0

    La question reste absolument centrale, oui.

  • Speaker #1

    Il y a quand même une observation qui est celle de l'Europe, et parfois elle nous est utile, et une fois n'est pas toujours coutume, si je voulais être polémique. Mais enfin, l'Europe essaie quand même de structurer un cadre avec un dispositif, l'AIE Act, adopté en 2024, et qui fixe des règles strictes. Pas de notation sociale, pas d'exploitation de la réunirabilité, transparence obligatoire et contrôle humain pour les IA utilisés dans des domaines sensibles, dont la santé mentale. Chaque État doit surveiller l'application. Et en France, c'est la CNIL, la Commission nationale de l'information et des libertés, qui en a la charge. Et cette mise en œuvre de ce dispositif d'encadrement sera progressive jusqu'en 2026. L'objectif est clair, c'est éviter que l'IA, ces outils, agissent sans aucun... garde-fous.

  • Speaker #0

    Oui, la Commission nationale informatique et liberté, tout à fait. C'est un cadre qui est effectivement indispensable, mais qui décide pas de la manière dont l'IA sera utilisée dans ton cabinet, dans un hôpital ou même à l'école. La loi, elle va tracer des limites, mais elle va pas créer la relation de soins. Donc, grosso modo, si on regarde le terrain, on voit qu'il y a, globalement, il y a trois acteurs. Il y a toutes les instances étatiques, il y a les professionnels de terrain et il y a les plateformes technologiques. Pour l'instant, on a le sentiment qu'aucun ne joue pleinement son rôle. L'État voit l'IA comme une super opportunité. Les soignants l'utilisent aussi comme une super opportunité, mais observent aussi les risques. Et les plateformes, elles suivent leur logique propre. Et donc, on est face à un déséquilibre qui ouvre une brèche, parce que pour y répondre, chacun doit monter en compétences. Dès l'école, il faut apprendre, il faut former les enfants à utiliser cet outil. C'est une responsabilité collective.

  • Speaker #1

    Les politiques, évidemment, ils ont un petit peu de mal à suivre, et en particulièrement en France, dans le contexte que nous traversons ces derniers mois, des députés en off, vraisemblablement, même ceux qui siègent dans la commission parlementaire santé mentale, ils ne savent pas trop ce qu'il faudrait faire et comment légiférer. La technologie va évidemment beaucoup plus vite que les dispositifs qui seraient potentiellement à disposition de mise en œuvre. par des réglementations. Et puis, de toute façon, en ce moment, ils ont du mal à se concerter. Bon, ils craignent aussi de freiner l'innovation. Pendant ce temps, des millions de personnes et de plus en plus nombreuses utilisent l'IA sans vraiment un cadre, un périmètre clair, un encadrement spécifique.

  • Speaker #0

    Oui, c'est vrai qu'il n'y a pas de choses claires qui sont pensées. Il n'y a pas de choses claires qui sont posées. Mais on parle quand même ici de santé mentale. n'est pas un sujet... banal. Alors, dans le commerce, dans la mobilité, tu peux perdre de l'argent, mais dans la détresse psychologique, là, tu risques une vie humaine. Donc, la première responsabilité, à mon sens, ça l'accompte surtout à l'État. C'est l'État qui doit définir, définir une ligne rouge, qui doit éventuellement interdire, je ne sais pas, certains usages sans supervision, et qui doit aussi imposer une transparence. Je le répète, c'est un outil qui touche aussi aux émotions. où la santé mentale doit être traitée comme un dispositif sensible. Ce n'est pas juste une application grand public.

  • Speaker #1

    Il faut espérer que dans les échéances à venir, ce sujet sera pris en compte. Les professionnels du soin aussi doivent se positionner, c'est peut-être absolument partie prenante, et faire des propositions. Certains psychiatres nous disent qu'ils voient l'IA arriver comme une vague qui risque de les contourner. D'autres se taisent pour ne pas passer pour des ringards des antithèques. d'autres experts un gain de temps, et on verra un peu plus tard, ce n'est pas de nature à être très organisé.

  • Speaker #0

    De toute façon, les plateformes ne vont pas s'autoréguler par altruisme. Déjà, s'il faut partir de cette idée, elles vont réagir, à mon sens, seulement quand la loi les y obligera. Il y a des choses, il y a des avancées, il y a des choses qui essaient de légiférer. On pourrait penser que l'IA fera du bien parce qu'elle sera mieux que rien. Sauf que mieux que rien, ce n'est pas une politique publique.

  • Speaker #1

    Alors, pour conclure, Fabrice, et comme toujours, et c'est ce qu'on répète à chacun de ces numéros dans l'actu en tête, il y a l'acteur essentiel, vous, vous, le citoyen, vous pouvez, et on le dit à chaque début d'épisode, prendre en charge le sujet du discernement, en parler en famille, partager vos émotions, et puis vous dire ça, j'y vais, ça, j'y vais pas, je savais pas que j'y accédais, mais... qu'est-ce que ça signifie pour moi ? Bref, être un acteur, comme un acteur thérapeutique, c'est-à-dire utiliser l'IA comme un outil et non comme un soignant à qui on donne un blanc-seing.

  • Speaker #0

    Oui, je pense que c'est nous qui devons tenir la barre et pas la machine. Je pense que l'État doit protéger, je pense que les soignants doivent orienter et les plateformes doivent rendre des comptes. Et puis aussi les citoyens, comme tu l'as dit. qui doivent savoir ce qu'ils acceptent.

  • Speaker #1

    Nous allons, sur ce sujet, nous arrêter là pour aujourd'hui. L'IA promet beaucoup, on pourrait en parler davantage encore. L'IA nous inquiète parfois, mais elle ne remplacera jamais ce qui est au cœur du soin, au cœur de nos spécificités d'êtres sociaux, la présence, la responsabilité, le regard, la chaleur humaine dans la relation. Merci à toutes et à tous de nous avoir écoutés. Merci Fabrice.

  • Speaker #0

    Eh bien merci, et on se retrouve donc très vite. pour un nouvel épisode de l'actu en tête. Prenez bien soin de vous et à bientôt.

Description

L’intelligence artificielle s’invite partout dans notre quotidien… et désormais jusque dans nos conversations les plus intimes. Peut-on vraiment parler de santé mentale avec une IA ? Est-ce un simple outil, un compagnon, un miroir… un risque… ou peut-elle remplacer un psy ?


Dans cet épisode de L’Actu en Tête, Didier Meillerand et Fabrice Pastor décryptent le rôle grandissant de l’IA dans l’accompagnement psychologique :

🤖 Que peut faire l’IA aujourd’hui pour soutenir les personnes en difficulté ?

🧠 Pourquoi sommes-nous nombreux à chercher du réconfort ou des réponses auprès d’un assistant virtuel ?

⚠️ Quels risques, quelles limites, quelles dérives ?

🩺 Et surtout : l’IA peut-elle réellement remplacer un psychologue… ou seulement compléter le soin humain ?

🌱 Comment garder l’humain au cœur de la santé mentale ?


Entre innovations, questions éthiques et nouveaux usages, un épisode pour comprendre ce que l’IA change (ou ne change pas) dans notre rapport au soin — et ce qu’elle ne pourra jamais remplacer.


🎧 Un décryptage accessible, utile et ancré dans l’actualité, à retrouver chaque semaine dans L’Actu en Tête.


Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.

Transcription

  • Speaker #0

    Bienvenue sur l'Actu en Tête.

  • Speaker #1

    Bonjour à toutes, bonjour à tous, bienvenue dans l'Actu en Tête, ce podcast hebdomadaire où nous tentons d'explorer l'actualité par le prisme de la santé mentale pour prendre de la distance, du discernement dans nos vies quotidiennes. Et chaque semaine, je retrouve avec joie mon complice Fabrice Pastor, neuropsychologue, formateur, conférencier, auteur, créateur de contenu. Bonjour Fabrice.

  • Speaker #0

    Et bonjour Didier, je rappelle que tu es journaliste, président du Psychodon et commissaire général du Forum National de la Santé Mentale. Je suis une nouvelle fois ravi de te retrouver pour ce nouvel épisode et bonjour également à toutes et à tous.

  • Speaker #1

    Fabrice, aujourd'hui on observe un sujet qui nous intéresse tous dans nos familles et qui peut aussi parfois nous inquiéter, mais qui a pris le devant de la scène, c'est l'intelligence artificielle. On en parle partout, dans les familles, je disais, dans les écoles. à l'hôpital, dans les médias. On va se poser une question en lien avec le cœur de notre podcast. Quels sont les bénéfices et les risques de l'intelligence artificielle dans le champ, dans le domaine de la santé mentale ? Le bénéfice-risque, comme en médecine.

  • Speaker #0

    Oui, c'est ça. Alors, c'est sûr que c'est un sujet qu'on ne va pas épuiser en un seul podcast, évidemment. On va juste aujourd'hui proposer quelques clés de lecture et surtout des pistes pour essayer, encore une fois, et c'est le but de ce podcast, d'y réfléchir autrement. Parce que, d'ailleurs, un petit peu toutes les promesses de l'IA, on peut aussi parfois se demander ce que devient notre rapport à ce qui nous intéresse, la souffrance, la santé mentale, l'écoute quand une IA va s'en mêler.

  • Speaker #1

    Est-ce que tu penses, Fabrice, que, au regard de l'étude publiée cette année aux Etats-Unis, un essai clinique sur le chatbot de thérapie qui est baptisé Therabot, en français, le résultat des étudiants anxieux qui allaient un peu mieux après quelques semaines d'échange. Alors, est-ce qu'on soit se dire, est-ce que, vraisemblablement, il est raisonnable de penser que l'IA peut remplacer le psy ?

  • Speaker #0

    Là, c'est la grande et vaste question. Oui, c'est intéressant, mais attention parce qu'il peut y avoir effectivement une amélioration modeste, on va dire, dans un protocole. Mais ça peut pas dire non plus qu'on a trouvé le psychologue, le psychiatre pas cher du futur. Enfin, je dirais pour l'instant, parce que ce sont des outils qui évoluent tellement vite qu'à ce jour, il me semble que ce ne soit pas le cas. Mais on verra dans l'avenir. Avant de parler de ce psy virtuel, juste on rappelle quelques mots. D'où vient l'IA ? Tout premier programme qui date de 1956 au Dartmouth College avec MacCarty et Minsky. Quelques années plus tard, un programme qui a marqué les esprits, c'était le programme ELISA qui a été créé en 1966. C'était un programme qui simulait un thérapeute. C'était simple, mais certains utilisateurs avaient déjà l'impression qu'une machine les comprenait. Aujourd'hui, Chad GPT, Claude, Gemini, bref, plein de chatbots qui peuvent nous offrir une écoute 24h sur 24 en un instant, qui peuvent rappeler des exercices de respiration, qui peuvent proposer plein de choses, plein de prises en charge, entre guillemets. Mais bon, il n'y a pas de réelle empathie, il n'y a pas d'émotion. Il n'y a pas de capacité à comprendre ce qu'est la détresse humaine, dirons-nous.

  • Speaker #1

    Comme neuropsychologue, Fabrice, ce que tu nous dis, c'est que l'IA, c'est un peu comme un dictionnaire des émotions. Ça donne des définitions, mais ça ne peut pas prendre en compte le vécu de la personne. Nous sommes des êtres sociaux, des êtres de relations intimes.

  • Speaker #0

    Oui, en quelque sorte. Et même pire, ça peut même donner l'illusion d'une compréhension. C'est ce qu'on appelle d'ailleurs l'effet ELISA. qu'on avait déjà observé dans les années 60, où des patients étaient persuadés, étaient convaincus que l'ordinateur les comprenait. Alors qu'en réalité, il ne faisait que reformuler. Alors on n'est pas loin de l'effet Barnum, l'effet Barnum bien cognitif très connu. J'aime bien quand je présente l'effet Barnum parler un petit peu de l'horoscope, c'est-à-dire qu'en gros, plus on va vous donner une image de vous, une description de votre personnalité qui va être floue, et plus vous allez avoir le sentiment qu'elle vous correspond parfaitement. Ça c'est l'effet Barnum.

  • Speaker #1

    Est-ce qu'on peut se dire, sans être recto, Trop grade que l'IA, ça peut être dangereux pour la santé mentale.

  • Speaker #0

    Ça peut être dangereux si la personne en crise, qui est en détresse psychologique, confond un script automatisé avec une vraie oreille humaine, parce qu'elle peut s'enfermer dans une fausse relation thérapeutique. D'ailleurs, il faut aussi parler de la qualité du prompt. Le prompt, c'est l'information, l'ordre qu'on envoie Ausha. La justesse de la question, du prompt, va influencer énormément la réponse. Quelqu'un qui est en détresse, peut formuler une demande qui va être confuse, qui peut être ambiguë, voire trop brouillonne, et l'IA va y répondre de manière tout aussi imprécise. Par contre, évidemment, le thérapeute humain, un temps soit peu expérimenté, évidemment, va reformuler, va ajuster, alors qu'une IA, non.

  • Speaker #1

    Et puis, ne va pas rentrer dans le champ de la relation émotionnelle avec tous les vecteurs de la communication. Il n'y a pas le langage, il n'y a pas le sourire, le regard. la morphopsychologie qui se joue lors des séances. Est-ce à dire que l'intelligence artificielle est plutôt au service des psys que l'inverse ? On va dire les choses franchement. Depuis un an, on voit de partout des déclarations très enthousiastes. L'IA va sauver notre pauvre psychiatrie. L'IA va réduire la charge des soignants. L'IA va compenser le manque de professionnels. Parfois, même des fédérations, comme la Fédération hospitalière de France, publie un document cet été pour affirmer que l'IA peut même dégager du temps au personnel soignant. Alors qu'on vit dans un pays où trouver un psychiatre révèle du parcours du combattant, évidemment, ses perspectives, ses espoirs emballent certains. Mais Fabrice, toi qui les observes de près, est-ce que tu crois que ces promesses, elles tiennent réellement debout ?

  • Speaker #0

    Alors, il y a certaines parties du discours qui tiennent, c'est vrai. Il y en a d'autres, par contre, qui sont fausses. Certes, l'IA... peut analyser des milliers, des millions de données médicales en quelques secondes. Elle peut repérer des signaux faibles dans l'évolution d'une dépression ou proposer des alertes de rechute, croiser des variables que le clinicien ne peut pas traiter seul. Et je parle ici des IA généralistes, pas de dispositifs qui pourraient être médicaux et certifiés. Alors c'est super utile, c'est même indispensable aujourd'hui pour les médecins de terrain et surtout en psychiatrie. Après, l'efficacité technique n'a rien à voir avec la qualité du soin.

  • Speaker #1

    Est-ce qu'on peut dire, Fabrice, qu'une IA peut annoncer à un patient qu'il risque une rechute, mais ne peut pas l'aider à comprendre pourquoi il se sent mal ?

  • Speaker #0

    Exactement, et je le redis clairement, dans des conditions strictement encadrées et supervisées, certains Ausha montrent des bénéfices. donc le problème c'est pas tant l'outil en soi, c'est ce qu'on en fait, c'est un peu comme pour tout. Donc, le chat peut repérer un motif, un fonctionnement particulier, par exemple dans ton sommeil, si tu utilises une appli, dans ta fréquence cardiaque, si tu portes une montre connectée, mais elle ne va pas comprendre ton histoire, elle ne va pas comprendre tes contradictions, la façon dont tu traverses un événement. Et là où la situation devient préoccupante, c'est que cette efficacité technique donne parfois au décideur ... l'impression que l'on peut remplacer la relation humaine justement par une IA.

  • Speaker #1

    Je sens venir la polémique parce que derrière les discours sur le gain de temps, on entend parfois autre chose. On va commencer à penser qu'il est possible de remplacer le manque de thérapeutes par des machines.

  • Speaker #0

    Pourquoi payer un professionnel quand un assistant numérique peut traiter les premières demandes ? On pourrait se poser la question. Il y a certaines institutions qui commencent à le dire d'ailleurs même un peu en filigrane. Ce raisonnement ouvre la voie aujourd'hui à une psychiatrie, une psychologie qui est un peu low cost, qui va être pilotée par une logique comptable. D'ailleurs, j'ai appris que certaines assurances américaines testent des chatbots à ce sujet. Tu en penses quoi ?

  • Speaker #1

    Je serais comme toi, je dis, attendons pour voir. Tu as raison, dans un contexte où nous cherchons des économies par... la tentation grandit, et même quand on en discute, même avec des responsables d'établissement, la tentation grandit d'installer des assistants conversationnels pour gérer des premiers contacts avec l'anxiété légère de certains patients, pour répondre à des questions à des familles, pour orienter des jeunes en détresse vers des protocoles qui seraient automatisés. Bref, une première ligne d'accueil qui serait robotisée. on remplace la performance qui est qu'on m'attribuait à la permanence téléphonique par un chat qui dit je comprends votre inquiétude, sauf qu'en fait, le risque Fabrice, c'est que il faut bien qu'on sache qu'il ne comprend rien en fait.

  • Speaker #0

    Oui, c'est ça. Et une IA peut aussi très bien minimiser un... Symptôme qui pourrait être grave. Elle peut mal interpréter une phrase ou quelque chose. Et donc, elle peut conclure qu'une situation ne nécessite pas de prise en charge particulière. On l'a vu, notamment dans des tests indépendants. Et si un hôpital ou une plateforme particulière s'appuie sur ce tri automatisé, plusieurs personnes vulnérables pourraient clairement passer entre les mailles du filet.

  • Speaker #1

    En fait, Fabrice, un outil reste un outil, même s'il est de plus en plus performant. Et un être humain, ça reste un être humain. Un outil est au service de l'humain qui l'a constitué. Et l'humain, il est quand même dans une complexité qui n'a rien à voir avec un outil. Et au fond, tout cela, ça rejoint une question sociale dans le champ politique. parce que l'IA devient en fait un prétexte pour masquer le manque de... moyens humains, le manque de thérapeutes sur les territoires, par exemple.

  • Speaker #0

    Oui, c'est pour ça que ce débat devrait, à mon sens, sortir du cercle des experts pour entrer dans le débat public. On l'a dit, l'IA peut aider le clinicien parce qu'elle va accélérer l'accès aux données, elle va faciliter les choses, faciliter le repérage, elle peut faciliter le diagnostic, elle peut même simplifier la coordination des suivis, elle peut créer des protocoles de soins, elle peut créer des accompagnements, elle peut créer énormément de choses. Il faut donc l'utiliser à bon escient. mais il ne faut pas que ce soit la solution par défaut.

  • Speaker #1

    Oui, et lorsque c'est encadré par des psychiatres avec une grande proximité en ce qui concerne l'alliance thérapeutique, ça peut être très bien fait. Je pense au lauréat de Transmental de cette année qui a développé une clinique digitale qui est aussi en lien avec un chat et qui s'appelle Psy4Kids. C'est une belle initiative dans le champ de l'IA. mais derrière avec un vrai projet médical et qui est limité, qui ne remplace pas la clinique du professionnel de santé. Parce que l'IA, elle ne permet pas de rester plus de dix minutes avec un patient en crise. Elle ne sent pas qu'un adolescent cache quelque chose derrière son comportement, derrière son langage. L'IA ne voit pas la micro-expression ici ou là. de la morphopsychologie ou même d'un mot, d'une parole ou d'un geste qui traduit un malaise. Elle n'entend pas une respiration tremblée.

  • Speaker #0

    Elle n'a pas de responsabilité clinique. Elle ne porte pas non plus les conséquences de ce qu'elle propose. Elle n'est pas engagée dans la personne. Et finalement, on pourrait se dire que cette absence de responsabilité soulève des questions éthiques. J'ajoute aussi quelque chose qu'on oublie souvent, c'est l'absence de contact réel, voire physique, qui est pourtant essentiel dans certaines prises en charge. Et aussi le non-verbal. L'IA n'analyse, à mon sens, à ma connaissance, pas le non-verbal. Alors, si j'ai dernièrement participé, observé un nouveau chatbot, en fait, qui observe certaines consultations et qui analyse le comportement non-verbal du patient, ça s'appelle Marco, je trouve ça particulièrement intéressant. Ça pourra intéresser éventuellement certains professionnels de santé. Bref. Tout ça pour dire qu'à ce jour, pour l'instant, aucune machine ne peut remplacer une présence.

  • Speaker #1

    Un regard, une posture, et c'est presque rassurant Fabrice, parce que la relation thérapeutique, l'alliance thérapeutique entre une personne, un patient et un professionnel de santé mentale, c'est une aventure humaine qui dépasse bien sûr la relation entre un outil et une personne. Et parfois, on se doit de l'aborder. L'intelligence artificielle déraille lorsque l'usage n'est plus raisonnable. Il y a des situations où ça se passe mal. Par exemple, l'opinion publique a été marquée par une affaire aux États-Unis où des parents accusent l'IA, un tchat, d'avoir renforcé le désespoir de leur fils de 16 ans qui est mort par suicide. Et on se pose évidemment la question directement, est-ce que l'intelligence artificielle... peut aller jusqu'à mettre en danger de mort une personne.

  • Speaker #0

    Oui, elle peut, évidemment. Et pas seulement en théorie. On a des tests indépendants où certains chatbots ont validé des idées délirantes soutenues des pensées désorganisées. Des chatbots qui ont répondu à des messages suicidaires avec des formulations assez ambiguës. Il y a d'ailleurs des chercheurs qui parlent de folie à deux technologiques. Alors, qu'est-ce qui se passe ? L'utilisateur, en gros, formule une détresse. L'IA va reformuler, sans apporter de nuances. l'utilisateur interprète cette reformulation comme une sorte de caution. Cette boucle amplifie la souffrance et ça ne la pèse pas. Donc, voilà, l'IA ne va pas créer un mal-être, mais elle peut l'aggraver. Elle ne va pas l'inventer.

  • Speaker #1

    Alors, il y a aussi une autre... Une interpellation dont on ne parle peut-être pas vraiment, c'est quand l'IA ne se trompe pas, mais qu'elle influence. Ces outils ne se contentent pas de répondre, mais ils orientent des choix, ils proposent des interpellations, ils suggèrent des pistes. Et là, une personne vulnérable peut accorder peut-être une confiance aveugle à ce que lui affirme l'intelligence artificielle.

  • Speaker #0

    Il y a plusieurs travaux qui montrent... que des utilisateurs suivent les recommandations d'une IA même lorsqu'elles contredisent leur propre bon sens. Une sorte de biais d'autorité technologique.

  • Speaker #1

    C'est vraiment l'inverse de notre projet en faisant ce podcast Actu en tête. Ne pas prendre ce qui est un faux comme un faux ou ce qui est un toxe comme un toxe, mais tout de suite se dire qu'est-ce qu'on veut dire, pourquoi on me dit ça et est-ce qu'ailleurs on dit la même chose. Comparer l'information parce que le danger ne vient pas seulement d'une erreur, il peut aussi venir du pouvoir « invisible » qui a été embarqué dans l'outil.

  • Speaker #0

    Oui, et j'ajoute un autre facteur, nos fameux biais cognitifs. Une personne qui cherche une confirmation trouve souvent dans l'IA une réplique qui conforte son idée, parce que le modèle reste sensible à la formulation.

  • Speaker #1

    C'est très fort ce que tu dis. Au fond, la question n'est plus « l'IA est-elle exacte ? » mais « l'IA impose-t-elle une façon de se sentir de ? » de ressentir en fait, et de participer aujourd'hui à un marché de la détresse psychique. Il existe une question que beaucoup évitent, c'est-à-dire que derrière l'IA, il y a de l'argent. Qui gagne de l'argent avec ses outils, avec l'IA ? Parce que c'est un marché énorme, qui fait à la fois rêver, qui est plein de perspectives, et qui est sur le champ de la santé mentale. ça Ça attire les méchants, ça attire les gentils, les géants du numérique, les coachs. C'est un gigantesque basarlande.

  • Speaker #0

    Oui, ça, c'est aussi un autre angle à traiter. Il y a des entreprises qui promettent une sorte d'accompagnement émotionnel ou psychologique ou thérapeutique personnalisé. Par contre, derrière, elles collectent des données. Des données qui sont sensibles. Votre sommeil, votre stress, vos ruminations, vos habitudes de vie, vos moments de crise. Toutes ces informations peuvent vraiment intéresser des personnes et des entreprises. qui n'ont rien à faire dans cet espace.

  • Speaker #1

    Et là, c'est un vrai risque démocratique parce qu'un outil comme l'IA, présenté alors comme un usage thérapeutique, peut devenir un usage commercial à des fins mercantiles ou marketing, ou pire, devenir un outil d'observation, voire de tris sociologique.

  • Speaker #0

    Oui, ça c'est absolument clair. Si la détresse psychique, psychologique devient une sorte de levier économique, Alors là, on... On est dans un modèle où la souffrance va rapporter de l'argent. Ça, ce n'est pas acceptable. Le soin doit rester dans un espace protégé. Et si les IA fragilisent cette frontière, ça va créer un danger qui ne va pas seulement être individuel, mais qui va être totalement sociétal.

  • Speaker #1

    Ce qu'on explore là, c'est que l'intelligence artificielle, c'est sûrement un bel outil de façon pragmatique, mais qui ne menace pas seulement la relation thérapeutique parce qu'il ne s'agit pas d'une réalliance de soins entre deux humains. mais qu'elle menace aussi la manière dont une société traite la vulnérabilité. Elle menace la vision de l'humain, la vision vivante de notre humanité.

  • Speaker #0

    C'est ça, ce sont de formidables outils. Quand je présente les IA, j'explique que c'est vraiment un outil absolument formidable. C'est digne de la révolution de l'Internet. Mais par contre, il ne faut pas être naïf avec l'outil.

  • Speaker #1

    Il s'agit à t'entendre, de s'interroger de qui, comment, euh doit-on faire pour poser des limites ? On a décrit les bénéfices possibles de l'IA dans le champ de la santé mentale. On a touché du doigt des limites et critiqué presque des enjeux économiques. Maintenant, la question des limites, elle se pose. On a l'impression, je le disais tout à l'heure, que c'est un peu le grand bazar ou le Far West. Les entreprises avancent plus vite que la loi. Les hôpitaux tentent de s'adapter, les usagers se débrouillent. L'État hésite, alors qui prend la main pour encadrer l'IA dans le champ de la santé mentale ?

  • Speaker #0

    La question reste absolument centrale, oui.

  • Speaker #1

    Il y a quand même une observation qui est celle de l'Europe, et parfois elle nous est utile, et une fois n'est pas toujours coutume, si je voulais être polémique. Mais enfin, l'Europe essaie quand même de structurer un cadre avec un dispositif, l'AIE Act, adopté en 2024, et qui fixe des règles strictes. Pas de notation sociale, pas d'exploitation de la réunirabilité, transparence obligatoire et contrôle humain pour les IA utilisés dans des domaines sensibles, dont la santé mentale. Chaque État doit surveiller l'application. Et en France, c'est la CNIL, la Commission nationale de l'information et des libertés, qui en a la charge. Et cette mise en œuvre de ce dispositif d'encadrement sera progressive jusqu'en 2026. L'objectif est clair, c'est éviter que l'IA, ces outils, agissent sans aucun... garde-fous.

  • Speaker #0

    Oui, la Commission nationale informatique et liberté, tout à fait. C'est un cadre qui est effectivement indispensable, mais qui décide pas de la manière dont l'IA sera utilisée dans ton cabinet, dans un hôpital ou même à l'école. La loi, elle va tracer des limites, mais elle va pas créer la relation de soins. Donc, grosso modo, si on regarde le terrain, on voit qu'il y a, globalement, il y a trois acteurs. Il y a toutes les instances étatiques, il y a les professionnels de terrain et il y a les plateformes technologiques. Pour l'instant, on a le sentiment qu'aucun ne joue pleinement son rôle. L'État voit l'IA comme une super opportunité. Les soignants l'utilisent aussi comme une super opportunité, mais observent aussi les risques. Et les plateformes, elles suivent leur logique propre. Et donc, on est face à un déséquilibre qui ouvre une brèche, parce que pour y répondre, chacun doit monter en compétences. Dès l'école, il faut apprendre, il faut former les enfants à utiliser cet outil. C'est une responsabilité collective.

  • Speaker #1

    Les politiques, évidemment, ils ont un petit peu de mal à suivre, et en particulièrement en France, dans le contexte que nous traversons ces derniers mois, des députés en off, vraisemblablement, même ceux qui siègent dans la commission parlementaire santé mentale, ils ne savent pas trop ce qu'il faudrait faire et comment légiférer. La technologie va évidemment beaucoup plus vite que les dispositifs qui seraient potentiellement à disposition de mise en œuvre. par des réglementations. Et puis, de toute façon, en ce moment, ils ont du mal à se concerter. Bon, ils craignent aussi de freiner l'innovation. Pendant ce temps, des millions de personnes et de plus en plus nombreuses utilisent l'IA sans vraiment un cadre, un périmètre clair, un encadrement spécifique.

  • Speaker #0

    Oui, c'est vrai qu'il n'y a pas de choses claires qui sont pensées. Il n'y a pas de choses claires qui sont posées. Mais on parle quand même ici de santé mentale. n'est pas un sujet... banal. Alors, dans le commerce, dans la mobilité, tu peux perdre de l'argent, mais dans la détresse psychologique, là, tu risques une vie humaine. Donc, la première responsabilité, à mon sens, ça l'accompte surtout à l'État. C'est l'État qui doit définir, définir une ligne rouge, qui doit éventuellement interdire, je ne sais pas, certains usages sans supervision, et qui doit aussi imposer une transparence. Je le répète, c'est un outil qui touche aussi aux émotions. où la santé mentale doit être traitée comme un dispositif sensible. Ce n'est pas juste une application grand public.

  • Speaker #1

    Il faut espérer que dans les échéances à venir, ce sujet sera pris en compte. Les professionnels du soin aussi doivent se positionner, c'est peut-être absolument partie prenante, et faire des propositions. Certains psychiatres nous disent qu'ils voient l'IA arriver comme une vague qui risque de les contourner. D'autres se taisent pour ne pas passer pour des ringards des antithèques. d'autres experts un gain de temps, et on verra un peu plus tard, ce n'est pas de nature à être très organisé.

  • Speaker #0

    De toute façon, les plateformes ne vont pas s'autoréguler par altruisme. Déjà, s'il faut partir de cette idée, elles vont réagir, à mon sens, seulement quand la loi les y obligera. Il y a des choses, il y a des avancées, il y a des choses qui essaient de légiférer. On pourrait penser que l'IA fera du bien parce qu'elle sera mieux que rien. Sauf que mieux que rien, ce n'est pas une politique publique.

  • Speaker #1

    Alors, pour conclure, Fabrice, et comme toujours, et c'est ce qu'on répète à chacun de ces numéros dans l'actu en tête, il y a l'acteur essentiel, vous, vous, le citoyen, vous pouvez, et on le dit à chaque début d'épisode, prendre en charge le sujet du discernement, en parler en famille, partager vos émotions, et puis vous dire ça, j'y vais, ça, j'y vais pas, je savais pas que j'y accédais, mais... qu'est-ce que ça signifie pour moi ? Bref, être un acteur, comme un acteur thérapeutique, c'est-à-dire utiliser l'IA comme un outil et non comme un soignant à qui on donne un blanc-seing.

  • Speaker #0

    Oui, je pense que c'est nous qui devons tenir la barre et pas la machine. Je pense que l'État doit protéger, je pense que les soignants doivent orienter et les plateformes doivent rendre des comptes. Et puis aussi les citoyens, comme tu l'as dit. qui doivent savoir ce qu'ils acceptent.

  • Speaker #1

    Nous allons, sur ce sujet, nous arrêter là pour aujourd'hui. L'IA promet beaucoup, on pourrait en parler davantage encore. L'IA nous inquiète parfois, mais elle ne remplacera jamais ce qui est au cœur du soin, au cœur de nos spécificités d'êtres sociaux, la présence, la responsabilité, le regard, la chaleur humaine dans la relation. Merci à toutes et à tous de nous avoir écoutés. Merci Fabrice.

  • Speaker #0

    Eh bien merci, et on se retrouve donc très vite. pour un nouvel épisode de l'actu en tête. Prenez bien soin de vous et à bientôt.

Share

Embed

You may also like