L’essor de l’intelligence artificielle dans le domaine de la santé mentale suscite de vives inquiétudes, alimentées par des récits alarmistes de chatbots défaillants et de conseils potentiellement dangereux. Pourtant, réduire l’IA à un simple risque occulte une réalité plus complexe : un accès aux soins en santé mentale souvent limité, voire inexistant, pour de nombreux patients.
La psychothérapie reste coûteuse, difficile d’accès et souvent fragmentée. Les délais d’attente peuvent s’étendre sur des mois, et les séances proposées sont parfois trop courtes ou manquent de continuité. Dans ce contexte, les patients se tournent fréquemment vers des ressources en ligne non structurées, des réseaux sociaux ou des forums anonymes, dépourvus de tout cadre clinique ou de toute responsabilité professionnelle.
Loin d’être une solution imprudente, la thérapie assistée par l’IA apparaît ainsi comme une réponse à un système de soins qui peine à répondre à la demande. « Je recommande à certains patients la thérapie assistée par l’IA, non pas en remplacement du traitement, mais en tant qu’extension structurée de celui-ci », explique le Dr Farid Sabet-Charghi, psychiatre.
Le véritable enjeu ne réside pas dans l’algorithme lui-même, mais dans la supervision. Lorsqu’elle est utilisée sans accompagnement, l’IA peut effectivement présenter des risques. Mais intégrée à une relation thérapeutique continue, ces risques sont considérablement atténués. Le clinicien doit d’abord aider le patient à clarifier ses difficultés, à identifier précisément le problème qu’il cherche à résoudre, avant de l’orienter vers l’outil d’IA.
L’IA devient alors un outil d’exploration, un matériau à examiner, à remettre en question, à affiner ou à rejeter. Lors des séances de suivi, le professionnel de santé analyse le travail effectué par le patient, corrige les interprétations erronées et ralentit le processus si l’IA avance trop rapidement. Dans ce modèle, la supervision n’est pas une option, mais le cœur même de l’acte thérapeutique.
Par ailleurs, l’IA peut aider à améliorer la qualité des questions posées en thérapie. Les patients savent souvent qu’ils souffrent, mais ont du mal à identifier la cause profonde de leur mal-être. L’anxiété peut être confondue avec la dépression, les obsessions avec un manque de volonté, et les conflits relationnels avec des défauts de personnalité. Un bon accompagnement permet d’éviter ces erreurs de diagnostic et d’orienter l’IA vers des questions pertinentes.
Grâce à un encadrement approprié, les outils d’IA peuvent aider les patients à structurer leur pensée, à organiser leurs idées, à répéter leurs raisonnements et à appliquer des techniques spécifiques entre les séances. Sans cet accompagnement, l’IA risque de se transformer en une simple chambre d’écho. Avec lui, elle devient un miroir objectif et discipliné.
De nombreuses plateformes d’IA offrent également une flexibilité intéressante, en s’adaptant à différents modèles thérapeutiques – cognitivo-comportementaux, psychodynamiques, gestaltiques, ou basés sur la pleine conscience. Cette adaptabilité permet aux patients de choisir une approche thérapeutique qui leur convient, plutôt que d’être limités par l’orientation d’un seul praticien. Cela remet en question l’idée reçue selon laquelle une seule école de pensée devrait dominer le domaine de la santé mentale.
Les critiques pointent souvent les biais potentiels de l’IA comme un défaut majeur. Cependant, il est important de rappeler que la thérapie humaine est elle-même soumise à des biais, liés à l’histoire personnelle, aux convictions culturelles et aux angles morts de chaque thérapeute. La différence est que les biais humains sont rarement remis en question, alors que les résultats de l’IA peuvent être analysés, corrigés et améliorés en temps réel.
En définitive, le véritable danger n’est pas l’IA en elle-même, mais toute thérapie non supervisée. Une IA non supervisée peut induire en erreur, tout comme une thérapie humaine non supervisée. La solution n’est pas d’interdire les outils, mais de les intégrer de manière responsable, en veillant à ce que leur utilisation soit régulièrement examinée et encadrée par un professionnel.
L’avenir des soins de santé mentale ne réside pas dans une opposition entre l’homme et la machine, mais dans la capacité des cliniciens à superviser, guider et assumer la responsabilité des outils que les patients utilisent déjà. La supervision n’est pas facultative, elle est essentielle.