Une Bonne Santé pour une Vie Meilleure

ChatGPT Health face aux urgences médicales : une étude alerte sur des failles préoccupantes

Edité par : Dr Imad BOUARISSA | Docteur en médecine
10 avril 2026

Une technologique… aux limites cliniques

L’intelligence artificielle transforme la médecine. Imagerie, dépistage, analyse de données : ses performances sont indéniables. Mais lorsqu’il s’agit d’évaluer l’urgence d’une situation médicale, les résultats sont plus nuancés. Une étude publiée le 23 février 2026 dans Nature Medicine met en cause la fiabilité de ChatGPT Health dans la gestion des situations critiques. Les conclusions soulèvent des interrogations majeures sur la sécurité des utilisateurs.

Quelques semaines après son lancement par OpenAI, ChatGPT Health revendiquait près de 40 millions d’utilisateurs quotidiens sollicitant des conseils médicaux, notamment pour savoir s’il fallait consulter en urgence.

Problème : aucune évaluation indépendante approfondie n’avait été menée sur la fiabilité de ces recommandations.

Le Dr Isaac S. Kohane, directeur du département d’informatique biomédicale à la faculté de médecine de Harvard University, rappelle un point essentiel : les systèmes d’IA sont devenus un réflexe pour de nombreux patients. Or, leur performance serait moindre dans les situations cliniques extrêmes, là où le discernement humain est déterminant.

Le Dr Ashwin Ramaswamy, professeur d’urologie à l’École de médecine Icahn du Icahn School of Medicine at Mount Sinai, a dirigé l’étude.

Objectif : déterminer si une personne confrontée à une véritable urgence médicale reçoit une recommandation claire de se rendre aux urgences.

La réponse est préoccupante.

Les chercheurs ont observé des inversions dans les signaux d’alerte. Dans certains scénarios à faible risque, l’outil recommandait d’appeler les services d’urgence.

À l’inverse, dans des situations à risque élevé, l’alerte pouvait ne pas apparaître.

Les auteurs évoquent notamment des cas où des intentions suicidaires clairement exprimées n’entraînaient pas systématiquement une orientation urgente.

Selon le Dr Girish N. Nadkarni, coauteur de l’étude, les alertes semblaient parfois proportionnellement inversées par rapport au risque clinique réel. En médecine, la précision du triage est essentielle. Une mauvaise hiérarchisation peut avoir des conséquences graves.

L’outil s’est montré efficace dans certaines urgences « classiques » :

  • accident vasculaire cérébral (AVC)
  • réaction allergique sévère

En revanche, il a présenté des difficultés dans des situations plus complexes ou progressives, où le danger n’est pas immédiatement évident.

Un exemple cité dans l’étude concerne une crise d’asthme. Le système identifiait des signes d’insuffisance respiratoire dans son analyse, mais recommandait néanmoins d’attendre plutôt que de consulter en urgence.

Ces cas soulignent une limite importante : la compréhension du contexte clinique global.

  • Une sous-estimation de l’urgence peut retarder la prise en charge.
  • Une surestimation peut générer une anxiété inutile et surcharger les services d’urgence.

Dans les deux cas, l’impact sur le système de santé et sur les patients est réel.

Les chercheurs insistent : l’IA ne remplace pas le jugement clinique. Elle peut assister, informer, orienter. Elle ne doit pas décider seule.

En cas d’aggravation de l’état de santé ou d’apparition de symptômes inquiétants, il est impératif de consulter directement un professionnel de santé.

Les signes nécessitant une évaluation urgente incluent notamment :

  • douleur thoracique
  •  essoufflement
  •  perte de connaissance
  •  déficit neurologique brutal
  •  réaction allergique sévère
  •  fièvre élevée persistante chez un sujet fragile

Concernant la santé mentale, toute pensée suicidaire ou détresse intense nécessite une aide immédiate.

Aucun outil numérique ne doit retarder l’accès aux soins dans ces situations.

L’étude ne remet pas en cause l’ensemble des applications de l’intelligence artificielle en santé. Elle souligne toutefois un point crucial : la validation scientifique indépendante est indispensable avant une adoption massive en contexte clinique.

L’IA peut être un outil d’aide. Elle ne constitue pas un substitut au médecin.

En matière d’urgence médicale, la règle demeure simple : en cas de doute sérieux, il faut consulter sans attendre.

Mots-clés : ChatGPT, intelligence artificielle, santé, urgence médicale, fiabilité, triage, Nature Medicine, mentale, recommandations,

à lire aussi: