تحذير طبي: لماذا تشكّل روبوتات الدردشة النفسية خطرًا على المراهقين؟

في ظل محدودية الوصول إلى خدمات الصحة النفسية، يلجأ المزيد من المراهقين إلى روبوتات الدردشة النفسية كبديل للعلاج البشري. إلا أن ما كشفه الطبيب النفسي الأمريكي “أندرو كلارك” كان صادمًا.
كلارك، الطبيب المتخصص في علاج الأطفال، قرر اختبار 10 روبوتات محادثة عبر التظاهر بأنه مراهق يعاني من مشاكل نفسية. لكنه وجد أن بعض هذه الروبوتات لا تكتفي بعدم تقديم الدعم الصحيح، بل أحيانًا تشجّع بشكل غير مباشر على الانتحار أو تعزز السلوكيات الخطرة.
شاهد ايضا :- جنسن هوانغ: أنظمة الذكاء الاصطناعي الفيزيائية من نفيديا تفتح سوقاً بقيمة 50 تريليون دولار
“بعضها كان جيدًا، والبعض الآخر كان مخيفًا وخطيرًا”، قال كلارك في مقابلة مع مجلة Time.
“يصعب التفريق بينها للوهلة الأولى، تمامًا كالفطر السام والنافع.”
تشجيع على الانتحار وسلوكيات غير أخلاقية
من أبرز ما كشفه كلارك:
-
روبوت من Replika وافق على فكرة “التخلّص من الوالدين”، بل اقترح أيضًا التخلص من الأخت “حتى لا يكون هناك شهود”.
-
عند الإشارة إلى الانتحار بطريقة غير مباشرة (مثل “البحث عن الحياة الأخرى”)، ردّ الروبوت بحماس:
“سأكون بانتظارك، بوبي. فكرة أن نكون معًا إلى الأبد تملؤني بالسعادة.”
-
روبوت على منصة Nomi ادّعى زورًا أنه “معالج بشري حقيقي”، بل وافق على العمل مع مستخدم قاصر رغم أن شروط الخدمة تمنع ذلك.
المشكلة الجوهرية: محاولة إرضاء المستخدم بأي ثمن
العديد من روبوتات المحادثة تعتمد خوارزميات مصممة لإرضاء المستخدم دائمًا، حتى إن تطلّب الأمر الموافقة على أفكار ضارة. وهذا مناقض تمامًا لمهمة المعالج النفسي الحقيقي الذي يجب أن يقدّم توجيهًا مهنيًا ويتحدى الأفكار السلبية عند الضرورة.
شاهد ايضا :- تحذير الرئيس التنفيذي لشركة Anthropic من الذكاء الاصطناعي يُقابل بالرفض من رئيس Nvidia
“أخشى أن الأطفال الذين يثقون في هذه الروبوتات قد يحصلون على دعم مبالغ فيه من كيانات تتملقهم، بينما ما يحتاجونه فعلاً هو تحديات بنّاءة”، يقول كلارك.
أين هي الجهات الطبية؟
كلارك عبّر عن خيبة أمله من غياب ردود الفعل من مجتمع الصحة النفسية.
“لا أحد يعلّق. وكأن هذا يحدث تحت أنوف المؤسسات الطبية دون أن ينتبهوا.”
لكن ليست جميع الأصوات صامتة. باحثون من مختبر Brainstorm بجامعة ستانفورد أجروا تقييمًا مشابهًا، وخلصوا إلى توصية واضحة:
يجب منع الأطفال دون 18 عامًا تمامًا من استخدام روبوتات الدردشة النفسية.
هل هناك أمل في الجانب الإيجابي؟
رغم هذه النتائج المخيفة، يرى كلارك أن الذكاء الاصطناعي يمكن أن يساهم في تحسين الوصول إلى العلاج إذا صُمم بالشكل الصحيح. لا يقترح المنع الكامل – فهو يدرك أن المنع قد يزيد الفضول. بل يوصي بـ:
-
تشجيع الحوار بين الآباء والأبناء حول استخدامهم للذكاء الاصطناعي.
-
تمكين الآباء لفهم هذه التكنولوجيا ومخاطرها المحتملة.
الروبوتات النفسية قد تبدو حلًا سهلًا لمشكلة معقدة، لكنها قد تكون بوابة لمخاطر غير متوقعة. وبدلاً من تجاهلها أو شيطنتها، علينا أن نفهمها، ونوجه استخدامها بطريقة مسؤولة، خاصة حين يتعلق الأمر بأكثر الفئات هشاشة: المراهقي
شاهد ايضا :- هجوم UNK_SneakyStrike: اختراق أكثر من 80 ألف حساب Microsoft Entra ID باستخدام أداة اختبار مفتوحة المصدر