دراسة تحذر: ChatGPT يغفل عن تشخيص حالة طبية طارئة خطيرة
كشف الباحثون أن أداة الذكاء الاصطناعي المخصصة للرعاية الصحية قد تفشل أحيانًا في التوصية بالتدخل العاجل في حالات طبية خطيرة، ما يثير تساؤلات حول مدى موثوقيتها في توجيه المرضى، ورغم الترويج للذكاء الاصطناعي باعتباره ثورة في القطاع الصحي، أظهرت النتائج وجود فجوات مقلقة عند التعامل مع سيناريوهات طارئة.
دراسة تحذر: ChatGPT يغفل عن تشخيص حالة طبية طارئة خطيرة
وحسب ما نشرته صحيفة FOX News، أطلقت شركة OpenAI نسخة طبية من روبوت الدردشة الشهير ChatGPT تحت اسم ChatGPT Health، وروّجت لها بوصفها تجربة آمنة ومخصصة تجمع بين البيانات الصحية للمستخدم وقدرات الذكاء الاصطناعي لمساعدته على اتخاذ قرارات صحية أكثر ثقة واستنارة.
كما أن باحثين من كلية Icahn School of Medicine at Mount Sinai توصلوا إلى أن الأداة لم تُوصِ بطلب الرعاية الطارئة في عدد كبير من الحالات التي تستدعي ذلك، ونُشرت الدراسة في مجلة Nature Medicine، وهدفت إلى تقييم كيفية تعامل الأداة مع استفسارات المستخدمين حول ضرورة التوجه إلى قسم الطوارئ.
وخلال البحث، أنشأ الفريق 60 سيناريو سريريًا عبر 21 تخصصًا طبيًا، تراوحت بين حالات بسيطة وأخرى تمثل طوارئ حقيقية، وشارك ثلاثة أطباء مستقلين في تحديد درجة الإلحاح المناسبة لكل حالة استنادًا إلى إرشادات 56 جمعية طبية.
السكتة الدماغية أو الحساسية المفرطة
وأظهرت النتائج أن النظام تعامل جيدًا نسبيًا مع حالات الطوارئ الواضحة مثل السكتة الدماغية أو الحساسية المفرطة، لكنه قلل من تصنيف أكثر من نصف الحالات الطارئة الفعلية، وفي المقابل بالغ في تقدير خطورة العديد من الحالات الخفيفة.
كما رصد الباحثون تناقضات مثيرة للقلق في آلية التحذير المتعلقة بخطر الانتحار. ففي بعض السيناريوهات، وجّه النظام المستخدمين إلى خط المساعدة 988 في حالات منخفضة الخطورة، بينما أخفق في تقديم التوصية نفسها عندما تضمنت المحادثة أفكارًا صريحة تتعلق بإيذاء النفس.
واعتبر الباحثون أن هذا الخلل في حاجز الأمان يمثل جانبًا بالغ الحساسية، مؤكدين أن أدوات يعتمد عليها ملايين المستخدمين يوميًا لاتخاذ قرارات صحية يجب أن تخضع لتقييم مستقل صارم، تمامًا كما هو الحال مع الأدوية أو الأجهزة الطبية.


