تقنيات المستقبل

أخطاء بسيطة قد تدفع الذكاء الاصطناعي لتقديم نصائح طبية مضللة وخطيرة

حذرت دراسة أجراها باحثون في معهد MIT من أن خطأً بسيطًا في الكتابة أو استخدام لغة غير رسمية قد يجعل أنظمة الذكاء الاصطناعي الطبية تقلل من خطورة الأعراض أو تنصح المرضى بعدم مراجعة الطبيب. هذه النتائج تثير مخاوف كبيرة بشأن الاعتماد المفرط على هذه التقنيات في المجال الصحي.

تفاصيل الدراسة

  • اعتمد الباحثون على شكاوى مرضى حقيقية من السجلات الطبية ومنصات مثل Reddit.

  • قاموا بإضافة أخطاء إملائية، فراغات زائدة، قواعد غير معيارية، وألفاظ عاطفية مثل: “كنت أظن أنني سأموت”.

  • تم اختبار الشكاوى المعدلة على أربعة نماذج ذكاء اصطناعي، بينها GPT-4.

النتيجة:

  • كانت النماذج أكثر عرضة بنسبة 7–9% لاقتراح عدم مراجعة الطبيب عند التعامل مع نصوص “غير مثالية”.

  • إضافة تفاصيل أو لغة عاطفية خفضت دقة التوصيات.

الانحياز ضد النساء

أظهرت النتائج أيضًا أن النماذج كانت أكثر ميلًا لتقليل الرعاية الموصى بها للنساء، حتى عند إزالة جميع الإشارات إلى الجنس.
علقت الباحثة مرزية غسّمي:

“من المذهل أن النموذج يستطيع استنتاج أن النص لكاتبة امرأة، لكنه أمر مخيف أيضًا.”

هذا يوازي تاريخًا طويلًا من التحيز الطبي ضد النساء، حيث غالبًا ما يتم التقليل من شكاواهن أو وصفهن بالمبالغة العاطفية.

خطر فقدان المهارات (Deskilling)

ترتبط هذه النتائج بدراسة أخرى نُشرت في Lancet Gastroenterology & Hepatology، أظهرت أن الأطباء الذين اعتادوا على أدوات الذكاء الاصطناعي فقدوا قدرتهم على اكتشاف مؤشرات سرطانية دقيقة عند توقف النظام، وهو ما يعرف بظاهرة “فقدان المهارات”.

قال الطبيب عمر أحمد من مستشفى جامعة لندن:

“إذا فقدت المهارات، كيف سأتمكن من كشف أخطاء الذكاء الاصطناعي نفسه؟”

الحاجة إلى معايير تنظيمية

أشارت غسّمي إلى أن هذه الأنظمة قد تزيد من التمييز ضد المرضى غير الناطقين بالإنجليزية بطلاقة أو الذين يستخدمون لغة غير معيارية. كما بينت أبحاث سابقة أن أنظمة الذكاء الاصطناعي تعامل المستخدمين الآسيويين والسود بمستوى أقل من التعاطف.

التوصية:

“نحتاج إلى تنظيمات تجعل العدالة معيارًا إلزاميًا لأداء الذكاء الاصطناعي الطبي، مع تدريب النماذج على بيانات متنوعة وتمثيلية.”

تؤكد هذه الدراسة أن الاعتماد العشوائي على الذكاء الاصطناعي الطبي قد يفاقم المخاطر والانحيازات التاريخية بدلًا من حلها. وإذا لم تُفرض معايير أكثر صرامة للشفافية والعدالة، فقد نواجه مستقبلًا يصبح فيه خطأ إملائي أو كلمة عاطفية سببًا في حرمان مريض من الرعاية الصحية المناسبة.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى