- Certaines personnes en ligne expérimentent l’utilisation de l’intelligence artificielle à la place d’une véritable thérapie pour les problèmes de santé mentale.
- Pour l’instant, les experts disent que l’utilisation de la technologie en tant que thérapeute n’est probablement pas sûre, car elle pose un certain nombre de problèmes de confidentialité et de sécurité.
- Mais avec ses fréquents problèmes d’accessibilité et de coût, la thérapie pourrait éventuellement être complétée par l’IA si les avancées technologiques étaient avancées, ont déclaré certains experts.
L’intelligence artificielle a le vent en poupe. Alors que les chatbots alimentés par l’IA comme ChatGPT gagnent en popularité, de plus en plus de personnes ont commencé à tester la technologie sur des tâches telles que répondre à des questions mathématiques, traduire des mots ou des phrases, et même générer des idées de recettes ou des listes de courses.
Certaines personnes sur les réseaux sociaux ont également commencé à utiliser ces chatbots IA comme thérapeutes de fortune. En présentant la technologie avec des questions ou des crises de santé mentale, les gens peuvent recevoir des conseils – souvent des conseils gratuits – sans avoir à consacrer du temps ou de l’argent à des séances de thérapie.
Un utilisateur de TikTok est allé jusqu’à dire qu’il avait remplacé son thérapeute par un chatbot IA. « Aujourd’hui, j’ai officiellement arrêté la thérapie parce que je viens de trouver le meilleur remplacement gratuit : utiliser ChatGPT », a déclaré le TikToker, recommandant aux autres de faire de même.
Ce conseil, cependant, inquiète les fournisseurs de soins de santé qui se concentrent sur la santé mentale.
« Soyez sceptique. [AI chatbots] ne sont pas destinés à remplacer une thérapie, une psychothérapie ou tout autre type d’intervention psychiatrique », a déclaré Bruce Arnow, PhD, professeur au département de psychiatrie, président associé et psychologue en chef à l’Université de Stanford. Santé. « Ils ne sont tout simplement pas assez avancés pour cela, et nous ne savons pas s’ils le seront un jour. »
Voici ce que des psychologues experts avaient à dire sur les raisons pour lesquelles l’utilisation de l’IA en tant que thérapeute pourrait être une préoccupation, les meilleures pratiques lorsqu’il s’agit de demander de l’aide pour des problèmes de santé mentale et les façons dont l’IA pourrait être utilisée en toute sécurité à l’avenir.
Comment les gens utilisent-ils les chatbots IA pour la thérapie ?
Il peut être difficile d’imaginer à quoi pourrait ressembler une « séance de thérapie » avec l’IA. Mais pour la plupart des utilisateurs en ligne, cela signifie simplement envoyer des messages avec un chatbot IA, qui permet aux gens de poser des questions spécifiques et souvent personnelles.
Un utilisateur de TikTok a guidé ses abonnés à travers une conversation qu’ils ont eue avec ChatGPT, demandant au chatbot « d’agir comme mon thérapeute ». J’ai besoin de soutien et de conseils sur ce que je dois faire dans certaines situations avec lesquelles je me bats.
ChatGPT a répondu qu’il était « ici pour soutenir [them] et offrir des conseils », avant de poser des questions de suivi sur les préoccupations du créateur et de proposer des solutions possibles. Il a également recommandé qu’ils recherchent une aide professionnelle si leurs anxiétés se sentaient toujours accablantes.
Un autre créateur de TikTok a partagé des captures d’écran de leur conversation avec un chatbot IA intégré dans l’application de médias sociaux Snapchat. Lorsque l’utilisateur a présenté au chatbot des questions sur les problèmes d’une relation, il a répondu : « Il est compréhensible de vouloir savoir ce qui se passe avec un ami. Mais il est important de respecter leurs limites et de leur donner de l’espace si c’est ce dont ils ont besoin.
D’autres utilisateurs encore ont présenté ChatGPT avec des idées suicidaires. Même dans ces situations, la technologie semble réagir remarquablement bien, a déclaré Olivia Uwamahoro Williams, PhD, professeure adjointe de formation des conseillers à l’Université de Géorgie occidentale et coprésidente de l’American Counselling Association Artificial Intelligence Interest Network.
« Ils généreraient tous des réponses très solides », a-t-elle déclaré. Santé. « Y compris les ressources, les ressources nationales, donc c’était bon à voir. J’étais comme, ‘D’accord, eh bien, ces choses sont très précises. La réponse générée ressemble beaucoup à celle d’un conseiller, une sorte de thérapeute. »
Préoccupations concernant l’utilisation des chatbots IA pour la thérapie
Malgré les réponses apparemment bonnes des chatbots aux questions sur les problèmes de santé mentale, les psychologues conviennent que le simple fait d’utiliser l’IA à la place de la thérapie traditionnelle n’est pas encore une option sûre.
Au niveau le plus élémentaire, il y a quelques inquiétudes à propos de ChatGPT ou d’autres chatbots d’IA donnant des informations absurdes ou inexactes aux questions, a expliqué Arnow. ChatGPT lui-même avertit les utilisateurs que la technologie « peut parfois générer des informations incorrectes » ou « peut parfois produire des instructions nuisibles ou un contenu biaisé ».
Au-delà de cela, Uwamahoro Williams a déclaré qu’il y avait également des problèmes logistiques à essayer d’utiliser l’IA en tant que thérapeute.
Les thérapeutes sont formés et agréés, ce qui signifie qu’ils doivent maintenir un certain niveau de pratique, a-t-elle expliqué. Les chatbots IA n’ont pas ces mêmes directives.
« Personne n’est impliqué dans ce processus. Et donc la première préoccupation que j’ai est la responsabilité », a-t-elle déclaré. « Il y a un manque de sécurité sur lequel nous devons être ouverts et honnêtes, car si quelque chose se produit, qui est alors tenu pour responsable? »
De même, utiliser l’IA en tant que thérapeute implique de mettre des informations sensibles sur Internet, a ajouté Uwamahoro Williams, ce qui pourrait être un problème de confidentialité pour certaines personnes.
Dans le cas de ChatGPT, le site collecte et enregistre les conversations, qu’il utilise pour mieux former l’IA. Les utilisateurs peuvent se retirer, supprimer leur compte ou effacer leurs conversations, cette dernière étant supprimée des systèmes de ChatGPT après 30 jours.
Uwamahoro Williams craint également que les conseils d’un chatbot ne soient mal interprétés par la personne qui demande de l’aide, ce qui pourrait aggraver les choses à long terme.
Tous ces scrupules, cependant, peuvent vraiment être attribués à un problème principal, à savoir que l’IA n’est qu’artificielle.
« Je pense qu’à l’avenir, cela va probablement nous dépasser, même les thérapeutes, de nombreuses manières mesurables. Mais une chose qu’il ne peut pas faire est d’être un être humain », a déclaré Russel Fulmer, PhD, professeur agrégé principal à l’Université Xi’an Jiaotong-Liverpool et professeur entrant et directeur du conseil à l’Université Husson. Santé. « La relation thérapeutique est un facteur très important. Cela explique une grande partie du changement positif que nous constatons.
La thérapie traditionnelle permet au prestataire et au patient de créer un lien émotionnel et de définir clairement les objectifs de la thérapie, a expliqué Arnow.
« L’IA fait un très bon travail en rassemblant beaucoup de connaissances sur un continuum », a déclaré Uwamahoro Williams. « Pour le moment, il n’a pas la capacité de vous connaître spécifiquement en tant qu’individu unique et quels sont vos besoins spécifiques et uniques. »
Les chatbots IA seront-ils un jour une option thérapeutique sûre ?
Bien que les psychologues conviennent largement que l’utilisation de l’IA comme remplaçant d’un thérapeute n’est pas sûre, ils divergent un peu sur le moment et si la technologie pourrait être utile.
Arnow est un peu sceptique quant à savoir si les chatbots IA pourraient un jour être suffisamment avancés pour fournir une aide au même niveau qu’un thérapeute humain. Mais Fulmer et Uwamahoro Williams sont un peu plus à l’aise avec l’idée que les chatbots pourraient être utilisés en plus de la thérapie traditionnelle.
« Ces plates-formes peuvent être utilisées en complément du travail que vous effectuez activement avec un professionnel de la santé mentale », a déclaré Uwamahoro Williams.
Discuter avec une IA pourrait même être considéré comme un autre outil pour travailler en dehors de la thérapie, similaire aux applications de journalisation ou de méditation, a-t-elle ajouté.
Il existe même des IA de chatbot qui sont pilotées spécifiquement à des fins de santé mentale, telles que Woebot Health ou Elomia. Il est possible que ceux-ci soient une meilleure option car ils sont créés spécifiquement pour traiter les requêtes liées à la santé mentale.
Par exemple, Elomia dit qu’ils ont une fonction de sécurité où les humains interviendront si les gens ont besoin de parler à un vrai thérapeute ou à une hotline, et Woebot dit que leur IA repose sur des «approches thérapeutiques testées cliniquement».
La plupart de ces programmes, en plus de l’IA en général, sont encore en cours de développement et de pilotage, il est donc probablement trop tôt pour les comparer définitivement, a déclaré Fulmer.
La thérapie par l’IA en ligne n’est certainement pas à la hauteur de la réalité, du moins pour l’instant, ont convenu Fulmer et Arnow. Mais le fait demeure que les soins de santé mentale sont inaccessibles pour de nombreuses personnes – la thérapie peut être incroyablement coûteuse, de nombreux thérapeutes n’ont pas de place pour de nouveaux clients et la stigmatisation persistante dissuade les gens d’obtenir l’aide dont ils ont besoin.
« Je suppose qu’il y a une différence entre mes idéaux et la reconnaissance de la réalité », a déclaré Fulmer. «ChatGPT et certains de ces chatbots offrent une solution évolutive qui est, dans de nombreux cas, relativement peu coûteuse. Et ils peuvent être une pièce du puzzle. Et beaucoup de gens en tirent profit.
Si une seule personne a reçu une sorte d’avantage en traitant l’IA en tant que thérapeute, alors la notion de savoir si cela pourrait fonctionner vaut au moins la peine d’être envisagée, a ajouté Fulmer.
Pour l’instant, ChatGPT peut avoir des applications utiles pour aider les gens à se « dépister » eux-mêmes pour les troubles de santé mentale, ont déclaré des experts. Le bot pourrait guider quelqu’un à travers des symptômes courants pour l’aider à décider s’il a besoin d’une aide ou d’un diagnostic professionnel.
L’IA pourrait également aider à former de nouveaux conseillers et aider les psychologues à en savoir plus sur les stratégies les plus efficaces, ont déclaré Arnow et Uwamahoro Williams.
Des années plus tard, à mesure que l’IA progressera, elle pourrait avoir plus d’applications en thérapie, a déclaré Fulmer, mais elle ne conviendra peut-être pas à tout le monde.
« Pour le moment, rien ne remplace un conseiller humain », a déclaré Fulmer. « [AI] synthétise de grands ensembles de données, c’est bien d’offrir des informations utiles. Mais seul un thérapeute de la vie réelle peut apprendre à vous connaître et adapter ses réponses et sa présence à vous.