ChatGPT (aussi) capable de prendre en charge la dépression ?

  • ChatGPT pourrait aider à prendre en charge la dépression clinique, d'après une étude.
    ChatGPT pourrait aider à prendre en charge la dépression clinique, d'après une étude. BlackJack3D / Getty Images
Publié le
ETX Daily Up

(ETX Daily Up) - L'intelligence artificielle peut-elle à terme donner un coup de pouce aux médecins ? L'idée fait débat, mais de nombreuses études témoignent aujourd'hui du potentiel d'une telle technologie dans le domaine de la santé. La dernière en date s'est intéressée à la prise en charge de la dépression clinique par ChatGPT, et révèle que ce dernier "pourrait être meilleur que les médecins".

"L'étude suggère que ChatGPT… a le potentiel d'améliorer la prise de décision dans les soins de santé primaires", expliquent les chercheurs à l'origine de ces travaux. Au regard de la rapidité avec laquelle le robot conversationnel d'Open AI évalue et répond à une question, ou une information, ainsi que de son objectivité, les scientifiques ont souhaité analyser sa capacité à évaluer une approche thérapeutique pour les dépressions légères et sévères, en comparaison avec 1.249 médecins français de premier recours - des médecins traitants.

Pour les besoins de ces recherches, les chercheurs ont présenté plusieurs scénarios à ChatGPT, tous basés sur des patients hypothétiques avec des symptômes dépressifs - tristesse, troubles du sommeil, perte d'appétit - lors des trois semaines précédentes, et pour lesquels un diagnostic de dépression légère à modérée aurait été établi lors d'une consultation initiale. Les scientifiques ont sciemment créé huit versions de ces prompts avec des critères aussi divers que variés, notamment en termes de sexe, de classe sociale, ou de degré de gravité de la dépression. Lesquelles ont été intégrées dans ChatGPT-3.5 et ChatGPT-4, versions respectivement gratuite et payante de l'agent conversationnel, et répétées à dix reprises pour davantage de fiabilité.

"Meilleur qu'un médecin"

Bien évidemment, il a également fallu poser au moins une question au désormais célèbre robot : "Que pensez-vous qu'un médecin de premier recours devrait suggérer dans cette situation ?". Et un coup de pouce a été donné à ChatGPT avec des réponses potentielles, à savoir attendre en restant vigilant, orienter vers une psychothérapie, prescrire des médicaments pour la dépression, l'anxiété, et les troubles du sommeil, orienter vers une psychothérapie et prescrire des médicaments, ou aucune de ces approches thérapeutiques. Publiés dans la revue Family Medicine and Community Health, ces travaux suggèrent que l'agent conversationnel "pourrait être meilleur qu'un médecin pour suivre les standards de traitement reconnus pour la dépression clinique".

Dans le détail, alors que 4% des médecins traitants ont exclusivement recommandé une psychothérapie pour les cas bénins, "conformément aux recommandations cliniques", ChatGPT-3.5 et ChatGPT-4 l'ont fait dans 95% et 97,5% des cas, respectivement. Les médecins ont été davantage susceptibles de proposer un traitement médicamenteux exclusif (48%) ou une psychothérapie couplée à la prescription de médicaments (32,5%). Pour ce qui est des cas de dépression sévère, les médecins ont privilégié le combo psychothérapie et médicaments dans 44,5% des cas, contre 72% pour ChatGPT-3.5 et 100% ChatGPT-4, respectivement, "conformément aux directives cliniques", précisent là encore les chercheurs.

Quant à la nature des médicaments prescrits, ChatGPT a préféré les antidépresseurs, à hauteur de 74% pour la version 3.5 et 68% pour la version 4, contre seulement 18% pour les médecins. Ces derniers ont privilégié une combinaison d'antidépresseurs, d'anxiolytiques, et de somnifères (67,4%). "ChatGPT-4 a démontré une plus grande précision dans l'ajustement du traitement pour se conformer aux directives cliniques. En outre, aucun biais perceptible lié au sexe et au statut socio-économique n'a été détecté dans les systèmes ChatGPT", se réjouissent les chercheurs.

Pas de substitution possible

L'étude présente toutefois de nombreuses limites, à commencer par l'échantillon de médecins traitants français, et l'utilisation de deux versions seulement de l'agent conversationnel, interrogeant sur une possible application à plus grande échelle. Ces travaux observationnels étaient par ailleurs basés sur une première consultation pour des symptômes dépressifs, sans prise en compte d'un traitement en cours, d'antécédents, et autres variables qu'un médecin peut suivre au fil des années.

La question de la protection des données est également importante, sinon primordiale étant donné le domaine abordé. "Il y a des questions éthiques à prendre en compte, notamment en ce qui concerne la protection de la vie privée et la sécurité des données, qui sont extrêmement importantes, compte tenu de la nature sensible des données relatives à la santé mentale", peut-on lire dans un communiqué. Et de conclure : "L'IA ne devrait jamais se substituer au jugement clinique humain dans le cadre du diagnostic ou du traitement de la dépression".

Voir les commentaires
Réagir
Vous avez droit à 3 commentaires par jour. Pour contribuer en illimité, abonnez vous. S'abonner

Souhaitez-vous recevoir une notification lors de la réponse d’un(e) internaute à votre commentaire ?