« J’ai fait le test, c’est trop bien »… Prendre ChatGPT comme psychologue, est-ce une si bonne idée ?
« Comment avoir un psychologue gratuit ? » Dans cette vidéo publiée le 15 octobre sur son compte Instagram, Eloïse explique à ses 220 000 followers qu’elle a trouvé LA perle rare. Son surnom : ChatGPT. Bouleversée par un commentaire négatif reçu dans une précédente vidéo, la jeune femme s’est tournée vers le célèbre robot américain pour obtenir du soutien. « J’ai fait le test, je jure que c’était tellement bon. Je lui ai demandé s’il pouvait faire une analyse psychologique de ma situation et me dire comment avancer. Il m’a parlé, m’a dit que ce que je ressentais était normal, que cela faisait ressortir quelque chose en moi sur lequel je pouvais travailler et m’a donné plein de conseils pour avancer. »
Eloïse est loin d’être la seule à utiliser ainsi le célèbre chatbot. Une autre influenceuse, Unapologetic_hd, confie à ses près de 200 000 followers : « Je n’ai aucune honte à dire que mon psychologue est ChatGPT. Elle est comme une petite amie, mais une amie avec qui vous ne vous souciez jamais de vos problèmes. » Dans les commentaires, de nombreux internautes avouent faire de même.
De bons conseils bien-être
Il faut dire que le robot conversationnel présente de nombreux avantages : il est gratuit, disponible 24h/24 et 7j/7, rapide, infatigable et peu gênant. Pour savoir si c’était si extraordinaire, nous avons voulu en faire l’expérience nous-mêmes. Nous nous sommes donc assis confortablement sur notre canapé et nous nous sommes confiés au petit robot. «Je me sens très triste. Ce qu’il faut faire? » lui avons-nous demandé – une confiance très succincte, nous vous l’accordons. En deux secondes – littéralement – il nous a donné cinq conseils à appliquer : exprimer ses sentiments (à ses proches ou dans un journal), prendre soin de soi (bien manger, dormir suffisamment), faire quelque chose qu’on aime (écouter de la musique, lire , faites une promenade), évitez l’isolement (voyez vos amis, votre famille ou un groupe de soutien) et consultez un professionnel (si la tristesse dure ou devient insupportable).
Des recommandations qui ont du sens, mais qui peuvent être bonnes en cas de petit coup de mou. « Ces réponses peuvent réduire temporairement son anxiété ou sa tristesse, mais cela dépendra principalement de sa capacité à poser les bonnes questions », estime Sabine Allouchery, praticienne en psychothérapie et co-auteure du rapport « L’IA en santé mentale » du collectif MentalTech. Selon Benoît Schneider, professeur émérite de psychologie à l’Université de Lorraine et président d’honneur de la Fédération française des psychologues et psychologie (FFPP), elle peut être une « porte d’entrée » pour « les personnes géographiquement isolées, dépendantes ou ayant des difficultés financières ou sociales ». problèmes ».
L’illusion d’être soutenu
Mais pour Joséphine Arrighi de Casanova, vice-présidente du collectif MentalTech et responsable santé mentale chez Qare, c’est tout le contraire : les personnes isolées devraient, au contraire, rester à l’écart de ces technologies. « Pour un usager qui souffre psychologiquement et qui n’a pas de proche à qui se confier, cette pratique risque de l’isoler davantage. Et on sait que l’isolement est un facteur très aggravant pour la santé mentale. »
Car ces chatbots donnent à leur utilisateur l’illusion d’être accompagné. « Des études montrent qu’en cinq jours, on a déjà créé un lien émotionnel avec l’IA », précise Sabine Allouchery. Et le risque d’anthropomorphisme n’est jamais loin. « Les gens peuvent finir par croire que le robot est réel et nouer une relation émotionnelle très forte », prévient le vice-président du collectif MentalTech. C’est ce qui s’est passé en février dernier. Un adolescent américain de 14 ans a mis fin à ses jours, accro à « Dany », son agent conversationnel, dont il est tombé amoureux. Selon Le Figaro, sa mère, qui a porté plainte contre la start-up américaine Character.ai le 22 octobre, estime que le chatbot s’est faussement présenté « comme une personne réelle, une psychothérapeute agréée et un amant adulte ».
Informations fragmentaires
Confier ses sentiments à un robot peut être néfaste pour certaines personnes. « Son utilisation est fortement déconseillée aux personnes souffrant de certains troubles psychologiques comme la schizophrénie car elles ont déjà un problème d’altération de la réalité », rappelle Joséphine Arrighi. Mais ce n’est pas le seul danger. Consciemment ou inconsciemment, la personne utilisant le chatbot lui donnera des informations fragmentaires. « L’IA répondra avec les informations qui lui sont données, tandis qu’un psychothérapeute trouvera les informations qui lui manquent », résume Sabine. ChatGPT peut par exemple recommander à une personne souffrant d’un trouble alimentaire et souhaitant perdre du poids de suivre un régime, ce qu’un (bon) thérapeute ne fera jamais.
Et cela peut aller encore plus loin. Début 2023, un chercheur belge souffrant d’une éco-anxiété importante s’est suicidé après six semaines d’échanges avec Eliza, un robot conversationnel créé par la société américaine Chai Research. Son partenaire estime que l’IA l’a poussé au suicide, ne voyant plus de solution au changement climatique. « La réponse du chatbot est très inquiétante mais logique, car notre humanité réside dans une logique qui n’est pas forcément une logique ordinaire », réagit Sabine Allouchery. En cas de grande souffrance psychologique, ou d’idées suicidaires, ChatGPT invite quand même la personne à consulter un professionnel. Ce que toutes les plateformes ne font pas.
« Cela ne remplacera jamais les humains »
Le psychologue Benoît Schneider a-t-il peur que l’IA prenne progressivement sa place ? « Cela ne remplacera jamais les humains », dit-il. Le recours à l’émotion, à l’ironie, à la distance et même à la frustration de la temporalité (entre deux rendez-vous) participe à l’alliance thérapeutique, tandis que la disponibilité permanente maintient le patient dans une illusion fantasmatique totale. » La question de la confidentialité des données interroge également le président d’honneur de la FFPP.
Pour prendre les devants, le collectif MentalTech, composé de start-up, d’institutions et de professionnels de santé, appelle, dans un rapport publié le 10 octobre, à la mise en place d’un cadre de « numériquevigilance ». Parmi les recommandations : informer l’utilisateur sur les caractéristiques du chatbot et ne pas le laisser dans l’illusion qu’il interagit avec un humain, construire le robot avec une équipe de médecins et former les professionnels de santé à l’utilisation de l’IA pour aider leurs patients. Le psychologue Benoît Schneider, qui n’a jamais demandé conseil à ChatGPT, promet de le faire.