صحة جيدة لحياة أفضل

ChatGPT  في مواجهة الطوارئ الطبية: دراسة تُحذّر من ثغرات مقلقة

حرر : د. عماد بوعريسة | دكتور في الطب
10 أبريل 2026

تقنية… بحدود سريرية

يُحدث الذكاء الاصطناعي تحولاً في الطب، فلى غرار قيامه بالتصوير الطبي، الكشف المبكر، تحليل البيانات تصبح قدراته لا جدال فيها، لكن عندما يتعلق الأمر بتقييم مدى استعجال حالة طبية، تصبح النتائج أكثر تعقيداً وأقل وضوحاً. وفي دراسة نُشرت في 23 فيفري 2026 في مجلة Nature Medicine  والتي تشكك في موثوقية ChatGPT Health  في إدارة الحالات الحرجة، وتثير تساؤلات كبيرة حول سلامة المستخدمين.

بعد أسابيع قليلة من إطلاقه من  طرف  OpenAI، أعلن ChatGPT Health أنه يحقق نحو 40 مليون مستخدم يومياً يطلبون نصائح طبية، خصوصاً لمعرفة ما إذا كانت حالتهم تستدعي الذهاب إلى الطوارئ.

المشكلة: لم تُجرَ أي تقييمات مستقلة معمّقة حول مدى موثوقية هذه التوصيات.

الدكتور ”إسحاق س. كوهاني” مدير قسم المعلوماتية الطبية الحيوية في كلية الطب بجامعة هارفارد، يذكّر بنقطة أساسية: أنظمة الذكاء الاصطناعي أصبحت رد فعل تلقائي لدى كثير من المرضى، لكن أداءها قد يكون أضعف في الحالات السريرية الحرجة حيث يكون الحكم البشري حاسماً.

الدكتور ”أشوين راماسوامي” بروفيسور جراحة المسالك البولية في كلية الطب إيكاهن بمستشفى ماونت سيناي، قاد هذه الدراسة.

الهدف: معرفة ما إذا كان الشخص الذي يواجه حالة طبية طارئة يتلقى توصية واضحة بالذهاب إلى قسم الطوارئ، لكن النتيجة كانت مقلقة.

هذا وقد لاحظ الباحثون وجود عكس في إشارات التحذير، ففي بعض السيناريوهات منخفضة الخطورة، كان النظام يوصي بالاتصال بالإسعاف أو التوجه للطوارئ، وفي المقابل في حالات عالية الخطورة قد لا تظهر أي توصية عاجلة.

وأشار الباحثون إلى حالات تم فيها التعبير بوضوح عن أفكار انتحارية، ومع ذلك لم يتم دائماً توجيه المستخدم إلى تدخل عاجل.

وبحسب الدكتور “جيريش ن. نادكاري” أحد المشاركين في الدراسة، فإن التنبيهات كانت أحياناً غير متناسبة مع مستوى الخطر الحقيقي. وفي الطب يُعدّ فرز الحالات أمراً بالغ الأهمية، وأي خطأ في الترتيب قد تكون له عواقب خطيرة.

أظهر النظام كفاءة في بعض الطوارئ “الكلاسيكية” مثل:

  • السكتة الدماغية
  • رد فعل تحسسي شديد

لكنّه واجه صعوبات في حالات أكثر تعقيداً أو تدريجية، حيث لا يكون الخطر واضحاً فوراً.

ومن الأمثلة المذكورة في الدراسة: “نوبة ربو” حيث قام النظام بتحديد علامات قصور تنفسي، لكنه رغم ذلك أوصى بالانتظار بدلاً من التوجه إلى الطوارئ.

هذه الحالات تكشف حدوداً مهمة: ضعف فهم السياق الطبي الشامل.

  • التقليل من خطورة الحالة قد يؤدي إلى تأخير العلاج.
  • المبالغة في تقدير الخطر قد تسبب قلقاً غير ضروري وتزيد الضغط على أقسام الطوارئ.

وفي الحالتين هناك تأثير مباشر على المرضى وعلى النظام الصحي.

يؤكد الباحثون أن الذكاء الاصطناعي لا يمكن أن يحل محل القرار الطبي، بل يمكنه فقط المساعدة والإرشاد، وليس اتخاذ القرار النهائي.

في حال تدهور الحالة الصحية أو ظهور أعراض مقلقة، يجب مباشرة التواصل مع مختص صحي.

ومن العلامات التي تتطلب تقييماً عاجلاً:

  • ألم في الصدر
  • ضيق في التنفس
  • فقدان الوعي
  • اضطراب عصبي مفاجئ
  • حساسية شديدة
  • حرارة مرتفعة مستمرة لدى شخص هش

وفيما يتعلق بالصحة النفسية فإن أي أفكار انتحارية أو ضيق شديد تستدعي تدخلاً فورياً.

ولا ينبغي لأي أداة رقمية أن تؤخر الوصول إلى الرعاية الصحية في هذه الحالات.

لا تنفي الدراسة فوائد الذكاء الاصطناعي في الطب، لكنها تؤكد نقطة أساسية: لا بد من تقييم علمي مستقل قبل اعتماده على نطاق واسع في السياقات السريرية، فالذكاء الاصطناعي يمكن أن يكون أداة مساعدة، لكنه ليس بديلاً عن الطبيب.

في حالات الطوارئ الطبية القاعدة بسيطة: عند الشك الجدي يجب طلب الرعاية دون تأخير.

الكلمات المفتاحية: الذكاء الاصطناعي، Ma Santé Ma Vie | Magazine de santé et bien-être en Algérie، الطوارئ الطبية، الموثوقية، الفرز الطبي، Nature Medicine، الصحة النفسية، التوصيات ، ChatGPT

إقرأ أيضاً: