Home Santé Bromisme suite à des conseils de santé basés sur l’IA : un rapport de cas

Bromisme suite à des conseils de santé basés sur l’IA : un rapport de cas

0 comments 102 views

Publié le 2025-10-22 14:45:00. L’intelligence artificielle, via des chatbots comme ChatGPT, pourrait indirectement favoriser la réapparition de toxidromes historiques, comme l’intoxication au bromure. Un cas alarmant illustre comment des informations numériques erronées peuvent mener à de graves troubles psychiatriques.

Une forme rare d’intoxication, le bromisme, qui avait pratiquement disparu avec le retrait des préparations à base de bromure du marché dans les années 1980, refait surface. Cette affection, autrefois cause fréquente de troubles psychiatriques au début du XXe siècle, se manifeste par des symptômes neuropsychiatriques, dermatologiques et métaboliques tels que hallucinations, tremblements et acné. Le risque de voir de nouveaux cas émerger est accru avec la facilité d’accès aux substances chimiques via Internet, et le diagnostic s’avère d’autant plus complexe que certaines méthodes d’analyse courantes peuvent mal interpréter la présence de bromure.

Le cas qui alerte les professionnels de santé concerne un homme de 60 ans, sans antécédents médicaux notables, admis à l’hôpital suite à des idées paranoïaques et des hallucinations. Les premiers examens révélaient une hyperchlorémie (126 mmol/L), un trou anionique négatif (-21 mEq/L) et une hypophosphatémie. Malgré des analyses toxicologiques classiques négatives, une intoxication au bromure a été suspectée par l’équipe de toxicologie.

Interrogé, le patient a révélé avoir remplacé le sel de table (chlorure de sodium) par du bromure de sodium dans son alimentation quotidienne. Il a expliqué avoir pris cette décision après avoir consulté diverses sources en ligne et utilisé le chatbot d’intelligence artificielle ChatGPT. Inquiet des effets potentiels du sel de table, il avait recherché des alternatives via l’IA.

Les analyses ont confirmé des concentrations de bromure extrêmement élevées chez le patient, atteignant 1 700 mg/L (la norme étant inférieure à 7,3 mg/L). L’hyperchlorémie initialement constatée était en réalité une « pseudohyperchlorémie », induite par la méthode d’analyse (électrode sélective d’ions – ISE) qui ne distingue pas le bromure du chlorure. Suite à une perfusion de solution saline et une correction des déséquilibres électrolytiques, les valeurs de laboratoire et les symptômes psychologiques du patient se sont normalisés en trois semaines.

Le Dr Audrey Eichenberger de l’hôpital universitaire de Seattle et son équipe soulignent que des modèles linguistiques basés sur l’IA, tels que ChatGPT, peuvent involontairement contribuer à des décisions sanitaires erronées. Dans ce cas précis, ChatGPT aurait suggéré le bromure comme substitut potentiel au chlorure, sans mentionner les risques toxicologiques associés. Contrairement à un professionnel de santé, un système d’IA n’est pas en mesure de procéder à une évaluation ciblée des risques ni de questionner le contexte d’utilisation.

Cette affaire met en lumière la nécessité d’une analyse critique des contenus générés par l’IA dans le domaine de la santé et renforce l’importance d’une supervision médicale. Les médecins doivent désormais interroger systématiquement leurs patients sur leurs sources d’information numériques, surtout lorsque leurs pratiques d’automédication semblent inhabituelles.

Le cas présenté élargit la compréhension des causes modernes du bromisme et confirme l’importance des sources d’information numériques en tant que risques potentiels pour la santé. Pour la pratique clinique, cela implique plusieurs points :

  • Sur le plan diagnostique : Le bromisme doit être intégré au diagnostic différentiel de l’hyperchlorémie inexpliquée avec un trou anionique négatif.
  • Sur le plan préventif : Une sensibilisation aux risques liés à une utilisation inappropriée d’Internet et de l’IA est primordiale.
  • Sur le plan de la recherche : Des études futures devront explorer comment intégrer en toute sécurité les systèmes d’IA générative dans l’éducation des patients et prévenir leurs mésusages.

Ce rapport de cas confirme que, malgré sa rareté, le bromisme demeure une préoccupation pertinente, particulièrement à l’ère de l’information numérique sur la santé. L’innovation technologique, sans une éducation adéquate, peut engendrer de nouveaux risques toxicologiques. Une utilisation réfléchie et médicalement supervisée des outils basés sur l’IA est donc cruciale pour éviter des intoxications évitables et autres dangers pour la santé.

Leave a Comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.