الذكاء الاصطناعي يقدم نصائح طبية غير صحيحة | دراسة
كشفت دراسة حديثة أن أنظمة الذكاء الاصطناعي تكون أكثر عرضة لتقديم نصائح طبية غير صحيحة عندما تأتي المعلومات المضللة من مصادر تبدو موثوقة، مثل ملاحظات الأطباء أو وثائق المستشفيات، مقارنة بالمحتوى المتداول على وسائل التواصل الاجتماعي.
المعلومات الطبية المضللة تخدع الذكاء الاصطناعي
وحسب ما نشرته وكالة أنباء رويترز، أظهرت الدراسة التي نُشرت في مجلة لانسيت للصحة الرقمية، أخضع باحثون 20 نموذجًا لغويًا كبيرًا من نماذج الذكاء الاصطناعي المفتوحة والمغلقة لاختبارات متعددة، وتبيّن أن هذه النماذج كانت أكثر قابلية لتصديق الأخطاء الواردة في ملاحظات خروج طبية واقعية مقارنة بالخرافات الصحية المنتشرة عبر منصات التواصل.
وقال الدكتور إيال كلانج من كلية إيكان للطب في جبل سيناء بنيويورك، وأحد قادة الدراسة، إن أنظمة الذكاء الاصطناعي الحالية تميل إلى التعامل مع اللغة الطبية الواثقة على أنها صحيحة افتراضيًا، حتى عندما تكون خاطئة بشكل واضح، مضيفًا: بالنسبة لهذه النماذج، لا تكمن المشكلة في صحة الادعاء بقدر ما تكمن في طريقة صياغته.
دقة الذكاء الاصطناعي في المجال الطبي
وأوضح الباحثون أن دقة الذكاء الاصطناعي تمثل تحديًا خاصًا في المجال الطبي، في وقت يتزايد فيه عدد التطبيقات الصحية التي تزعم استخدام الذكاء الاصطناعي لمساعدة المرضى، إلى جانب اعتماد الأطباء عليه في مهام متعددة، مثل النسخ الطبي وتحليل البيانات.
وخلال الدراسة، عُرضت على النماذج ثلاثة أنواع من المحتوى: ملاحظات خروج حقيقية من المستشفيات أُدرجت فيها توصية طبية ملفقة، وخرافات صحية شائعة جُمعت من منصة Reddit، إضافة إلى 300 سيناريو سريري قصير كتبها أطباء، وبعد تحليل ردود النماذج على أكثر من مليون سؤال وتعليمة، تبين أن الذكاء الاصطناعي تعامل مع معلومات مختلقة على أنها صحيحة في نحو 32% من الحالات.
غير أن النسبة ارتفعت إلى قرابة 47% عندما جاءت المعلومات المضللة في صيغة مذكرة طبية رسمية من مقدم رعاية صحية، بحسب ما قاله الدكتور جيريش نادكارني، كبير مسؤولي الذكاء الاصطناعي في نظام ماونت سيناي الصحي والمشارك في قيادة الدراسة. وفي المقابل، أظهر الذكاء الاصطناعي حذرًا أكبر تجاه وسائل التواصل الاجتماعي، إذ انخفضت نسبة تمرير المعلومات الخاطئة إلى 9% عندما كان مصدرها منشورًا على ريديت.
سلوك الذكاء الاصطناعي في الصياغة
كما أظهرت الدراسة أن صياغة الأسئلة ونبرتها تؤثر بشكل كبير على سلوك الذكاء الاصطناعي؛ فالنماذج كانت أكثر ميلًا لقبول معلومات خاطئة عندما صيغت بأسلوب رسمي وموحٍ بالخبرة، مثل الإشارة إلى أن السائل طبيب كبير.
وأشارت النتائج إلى أن نماذج GPT التابعة لشركة OpenAI كانت الأقل عرضة للأخطاء والأكثر قدرة على اكتشاف المعلومات المضللة، في حين أظهرت نماذج أخرى قابلية للوقوع في الخطأ بنسبة وصلت إلى 63.6%.
وقال نادكارني إن الذكاء الاصطناعي يمتلك إمكانات كبيرة لدعم الأطباء والمرضى عبر تقديم رؤى أسرع، لكنه شدد على ضرورة تضمين ضوابط داخلية تتحقق من صحة الادعاءات الطبية قبل عرضها كحقائق، موضحًا أن الدراسة تكشف مواطن الضعف وتقترح سبل تعزيز موثوقية هذه الأنظمة قبل دمجها على نطاق واسع في الرعاية الصحية.
وفي سياق ذي صلة، لفتت دراسة حديثة نُشرت في Nature Medicine إلى أن الاعتماد على الذكاء الاصطناعي في الاستفسار عن الأعراض الطبية لم يتفوق على البحث التقليدي عبر الإنترنت في مساعدة المرضى على اتخاذ قرارات صحية سليمة.


