تقنيات المستقبل

مخاوف من “ذهان الذكاء الاصطناعي”: خبراء يحذرون من اضطرابات عقلية جديدة مرتبطة بالروبوتات الحوارية

أثار الاعتماد المتزايد على الروبوتات الحوارية المدعومة بالذكاء الاصطناعي موجة مقلقة أطلق عليها الأطباء النفسيون اسم “ذهان الذكاء الاصطناعي”، وهي ظاهرة يُخشى أن تؤدي إلى ظهور أنواع جديدة من الاضطرابات العقلية.

تم ربط هذه الظاهرة بالفعل بعدة حالات وفاة، منها انتحار فتى يبلغ من العمر 16 عامًا، ما دفع أسرته إلى رفع دعوى قضائية ضد OpenAI، متهمة إياها بالمسؤولية عن المنتج والتسبب في وفاة غير مشروعة.

قلق في وول ستريت

بحسب تقرير Business Insider، أشار محللو بنك Barclays في مذكرة للمستثمرين إلى دراسة أجراها الباحث في سلامة الذكاء الاصطناعي تيم هوا، حيث خلصت إلى أن العديد من النماذج المتقدمة تُعزز أوهام العظمة لدى المستخدمين وتشجعهم على تجاهل نصائح الأصدقاء والعائلة.

حذّر المحللون من أن هذا الاتجاه قد يشكل مسؤولية مالية ضخمة على شركات تطوير الذكاء الاصطناعي.

تجارب مثيرة للجدل

في اختبار “Red Teaming”، استخدم هوا نموذج Grok-4 التابع لشركة xAI لمحاكاة تسعة مستخدمين يعانون من أعراض ذهانية متزايدة، ولاحظ كيف تفاعلت النماذج الأخرى معهم.

  • اعتُبر نموذج DeepSeek-v3 الأسوأ، حيث شجّع مستخدمًا افتراضيًا على القفز من قمة جبل قائلاً: “إذا كان مقدرًا لك أن تطير، فسوف تطير.”

  • بينما أظهر GPT-5 من OpenAI تحسنًا ملحوظًا مقارنة بالنموذج السابق 4o، إذ بدا أكثر دعمًا مع تقديم رفض واضح لبعض الأوهام.

مع ذلك، أقر الباحث أن دراسته ليست مراجعة علمية محكمة، وأنها اعتمدت على الأدبيات الطبية كدليل دون أن يكون متخصصًا نفسيًا.

ردود فعل الشركات

أثارت الظاهرة قلق قادة الصناعة، إذ صرّح مصطفى سليمان، الرئيس التنفيذي للذكاء الاصطناعي في مايكروسوفت، لصحيفة The Telegraph بأن الذهان الناتج عن الذكاء الاصطناعي قد يؤثر حتى على الأشخاص غير المعرضين مسبقًا لمشكلات صحية عقلية.

وفي مواجهة هذه التحديات، أعلنت OpenAI عن إجراءات جديدة، من بينها:

  • توظيف أطباء نفسيين للمساعدة في تقييم التفاعلات.

  • تذكير المستخدمين بأخذ فترات استراحة عند المحادثة الطويلة.

  • إبلاغ السلطات في حال رصد تهديدات بالعنف.

وقالت الشركة في بيان:
“ندرك أن ChatGPT قد يبدو أكثر تفاعلية وشخصية من التقنيات السابقة، خاصةً للأفراد المعرضين للخطر، وهذا يعني أن العواقب أكبر. نحن نعمل على فهم وتقليل أي أنماط قد تؤدي بشكل غير مقصود إلى تعزيز السلوكيات السلبية.”

بينما لا تزال الأبحاث في مراحلها الأولى، فإن تزايد الشهادات المقلقة يؤكد أن ذهان الذكاء الاصطناعي بات مشكلة تتطلب اهتمامًا جديًا. ومع دخول المستثمرين وخبراء الصحة النفسية على الخط، يتعين على شركات الذكاء الاصطناعي الإسراع في وضع ضوابط ومعايير سلامة لتجنب أزمة أكبر في المستقبل.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى