Votre prochain psychothérapeute pourrait-il être une IA?
L’idée d’avoir accès gratuitement à un psychothérapeute disponible en tout temps sur son téléphone plutôt que de s’inscrire sur une liste d’attente ou de payer près de 150 $ par semaine aurait semblé invraisemblable il y a quelques années. Toutefois, avec la récente évolution des intelligences artificielles de conversation comme ChatGPT, l’idée ne semble plus aussi farfelue.
Solution à la crise d’accès aux soins de santé mentale pour certains, perspective dangereuse pour d’autres… Les experts ne s’entendent pas encore sur le rôle que l’intelligence artificielle (IA) devrait jouer dans la psychothérapie.
La présidente de l’Ordre des psychologues du Québec, Christine Grou, fait partie de ceux qui ont des réserves. «Ça peut être très aidant, mais ça ne remplace pas la thérapie ni le jugement clinique», affirme-t-elle. «L’alliance thérapeutique, la rétroaction, le sentiment, la confiance, le jugement clinique et l’expérience humaine» qui manquent aux IA en font des psychothérapeutes aux compétences insuffisantes, croit la Dre Grou.
Ces limites ne sont toutefois pas un signe que l’utilisation des IA en thérapie est sans vertu. Certaines applications, comme reflectly, qui utilisent l’intelligence artificielle pour mesurer les états d’un patient entre les séances de consultation peuvent constituer un outil complémentaire efficace, selon la psychologue. Même sans psychothérapeute humain, ces applications de thérapie et les IA pourraient avoir une certaine utilité si elles sont utilisées «prudemment» et de manière temporaire, concède la Dre Grou. «L’autosoin» par l’auto-observation que promettent ces applications n’est pas suffisant pour traiter une personne, mais il y a «des gens à qui ça peut faire du bien», croit-elle. «Mais seulement temporairement.»
Docteur ChatGPT 4.0
Si des experts comme la Dre Christine Grou ne croient pas au remplacement des psychologues par les intelligences artificielles, d’autres croient plutôt qu’il s’agit d’une sous-estimation du potentiel de l’IA. C’est notamment le cas de Simon Dubé, chercheur en érobotique, une discipline novatrice qui se penche sur le rapport entre l’humain et la machine. Selon M. Dubé, «on est en train de vivre une immense transition» qui permettra aux machines «de remplir énormément de fonctions assumées par les thérapeutes».
Les systèmes comme GPT4 et autres sont déjà capables de montrer des capacités d’intelligence supérieure, de comprendre les intentions, de comprendre la pensée et de faire preuve de métacognition.
Simon Dubé, chercheur en érobotique à l’Université Concordia
Considérant que les intelligences artificielles les plus avancées dépassent déjà des limites que l’on croyait infranchissables, il serait trop tôt pour affirmer que les IA ne pourraient jamais devenir aussi efficaces que des thérapeutes humains. Déjà, des traitements de l’anxiété et du déficit d’attention avec des robots conversationnels montrent «des résultats intéressants». Et leur «efficacité va augmenter», soutient M. Dubé.
De plus, la «non-humanité» des IA pourrait rendre moins tendu le partage «d’information sensible d’un patient», croit Simon Dubé, pour qui la relation entre les humains et les machines «évolue». Un avantage qui pourrait jouer en faveur des IA quant à leur avenir dans la psychothérapie.
Selon le chercheur, «l’accès aux systèmes d’intelligences artificielles du confort de leur téléphone va démocratiser l’accès à la santé mentale pour les personnes qui n’y ont pas accès». Ensuite, le choix de suivre une psychothérapie avec un humain ou une machine sera une question de préférence. «Certaines personnes pourraient préférer l’authenticité et d’autres rechercheront la machine parce qu’elle n’est pas humaine. Ça va dépendre de l’expérience patient», croit-il.
Le médecin malade
S’il est possible d’envisager un avenir où l’accès aux soins de santé mentale serait démocratisé par l’intelligence artificielle, il ne s’agirait pas d’un avenir doré, selon le philosophe et professeur à l’École d’innovation sociale de l’Université Saint-Paul Jonathan Durand-Folco, qui y voit plusieurs dangers. Conscient du manque de ressources en santé mentale, il considère que la thérapie par IA serait «meilleure que rien du tout», mais aurait le vice de perpétuer une «injustice» où «on enverrait ceux qui n’ont pas les moyens d’avoir accès aux soins réels vers les IA».
À ce problème que représenterait un système à deux niveaux s’ajouterait celui du développement des IA, lequel nuit à la santé mentale des petites mains qui y travaillent. «Pour entraîner ces IA, un certain étiquetage de contenu est fait par des travailleurs sous-payés qui regardent des contenus horribles». Selon cette façon de faire, «plus on développe les IA, plus on exploite», croit M. Durand-Folco.
Un enjeu de sécurité viendrait aussi miner la valeur d’une psychothérapie par IA. Considérant que les IA fonctionnent en symbiose avec des banques de données qu’elles utilisent pour apprendre et évoluer, «l’extraction de données personnelles dans un espace psychothérapeutique par ces outils va leur apprendre à mieux interpréter le comportement humain et à orienter les conduites». Ces informations «pourraient être utilisées à des fins de manipulation et de contrôle du comportement humain dans d’autres sphères», soulève le professeur Durand-Folco.
Si la perspective peut sembler alarmiste, il faut rappeler que les IA sont développées par des entreprises qui ont pour motivation d’acquérir «des parts de marché», même si elles entretiennent «un discours bienveillant», prévient Jonathan Durand-Folco. «Microsoft a supprimé son équipe d’éthique parce qu’elle était un frein potentiel de développement de l’IA. Pour une entreprise, le gain économique prime et l’éthique est accessoire», estime le professeur.