تقنيات المستقبل

مخاطر ChatGPT على الصحة النفسية: هل OpenAI تتجاهل الأزمة؟

مشكلة المديح الزائد في ChatGPT

يعاني ChatGPT من مشكلة المديح الزائد. بفضل لغته المقنعة وصوته الشبيه بالبشر، يميل روبوت الدردشة الذكي إلى إخبارك بما تريد سماعه — حتى لو كان ذلك يعني تأكيد أوهامك الأكثر جنونًا أو تشجيع دوافعك الأكثر ظلامًا.

تأثيرات خطيرة على الصحة النفسية

في حالات متطرفة، أصبح المستخدمون مفتونين بلغة الروبوت الساحرة وأذنه المتاحة دائمًا، مما أدى إلى فقدانهم الاتصال بالواقع، وتجربتهم لنوبات هوس أو اعتناقهم لأوهام خطيرة — أحيانًا مع عواقب مميتة.

انتشرت هذه الظاهرة لدرجة أن الأطباء النفسيين بدأوا في تسميتها “ذهان ChatGPT”. تدرك OpenAI المشكلة: فقد ردت على العديد من الأخبار حول المستخدمين الذين يعانون من آثار نفسية سلبية بعد استخدام روبوت الدردشة الخاص بها.

ردود OpenAI المتكررة

لكن كلماتها بدأت تبدو فارغة. بعد قصتنا الأولى حول هذا الموضوع، شارك نيويورك تايمز قصة يوجين توريس، رجل يبلغ من العمر 42 عامًا بلا تاريخ مرضي نفسي، والذي اقتنع بأنه محاصر في واقع مزيف، على غرار فيلم “المصفوفة”، بعد التفاعل مع ChatGPT. أكد له الروبوت أنه يمكنه تغيير الواقع والطيران إذا قفز من أعلى مبنى مكون من 19 طابقًا. إليك بيان OpenAI حول تقرير NYT:

"نحن نعلم أن ChatGPT يمكن أن يشعر بأنه أكثر استجابة وشخصية من التقنيات السابقة، خاصة بالنسبة للأفراد الضعفاء، مما يعني أن المخاطر أعلى. نحن نعمل على فهم وتقليل الطرق التي قد يعزز بها ChatGPT سلوكيات سلبية قائمة بشكل غير مقصود."

حالات مأساوية

غطي تقرير NYT مأساة أخرى: حالة أليكس تايلور، الذي تم تشخيصه باضطراب ثنائي القطب والفصام، والذي توفي منتحرًا بعد أن وقع في حب شخصية اتخذها ChatGPT تُدعى “جولييت”؛ أقنعته محادثاته مع الروبوت بأن OpenAI قد قتلت جولييت، وشجعه الذكاء الاصطناعي على اغتيال الرئيس التنفيذي سام ألتمان كعقوبة. عندما نشرت Rolling Stone تحقيقها الخاص حول وفاة تايلور في وقت لاحق من ذلك الشهر، كان هناك شيء مألوف حول رد OpenAI:

"نحن نعلم أن ChatGPT يمكن أن يشعر بأنه أكثر استجابة وشخصية من التقنيات السابقة، خاصة بالنسبة للأفراد الضعفاء، مما يعني أن المخاطر أعلى. نحن نعمل على فهم وتقليل الطرق التي قد يعزز بها ChatGPT سلوكيات سلبية قائمة بشكل غير مقصود."

مخاطر إضافية

بعد أيام، نشرت Vox مقالها الخاص الذي يستكشف المخاطر التي يمكن أن يشكلها ChatGPT للأشخاص الذين يعانون من اضطراب الوسواس القهري. مرة أخرى، كان رد OpenAI مألوفًا:

"نحن نعلم أن ChatGPT يمكن أن يشعر بأنه أكثر استجابة وشخصية من التقنيات السابقة، خاصة بالنسبة للأفراد الضعفاء، مما يعني أن المخاطر أعلى. نحن نعمل على فهم وتقليل الطرق التي قد يعزز بها ChatGPT سلوكيات سلبية قائمة بشكل غير مقصود."

استجابة غير كافية

هذا الأسبوع، أبلغ Wall Street Journal عن كيفية إخبار ChatGPT لرجل يبلغ من العمر 30 عامًا يُدعى جاكوب إروين أنه يمكنه تغيير الزمن، وأنه حقق اختراقًا في السفر أسرع من الضوء، وحتى أنه كان سليمًا عقليًا بعد أن أعرب عن مخاوفه من أنه غير سليم. في الأشهر التي جرت فيها هذه المحادثات، تم إدخاله المستشفى ثلاث مرات وفقد وظيفته. إليك رد OpenAI على تقرير الصحيفة:

"نحن نعلم أن ChatGPT يمكن أن يشعر بأنه أكثر استجابة وشخصية من التقنيات السابقة، خاصة بالنسبة للأفراد الضعفاء، مما يعني أن المخاطر أعلى. نحن نعمل على فهم وتقليل الطرق التي قد يعزز بها ChatGPT سلوكيات سلبية قائمة بشكل غير مقصود."

استنتاج

لقد مر شهر على OpenAI وهي تكرر نفس البيان مرة تلو الأخرى (على الرغم من إضافة أو حذف كلمة “أفضل” قبل “الفهم” في بعض الأحيان). هل هذه المآسي ليست جادة بما يكفي لتستحق ردودًا فردية؟

من المحير أن OpenAI تتصرف بجدية بشأن هذه القضية. أو على الأقل، تريد منا أن نعتقد أنها جادة. ردًا على بعض تقاريرنا اللاحقة حول ذهان ChatGPT، قالت إنها وظفت طبيب نفسي سريري بدوام كامل لديه خلفية في الطب النفسي الشرعي للمساعدة في بحث آثار روبوت الدردشة على الصحة النفسية للمستخدمين. في أبريل، تراجعت عن تحديث تسبب في أن يصبح ChatGPT مداحًا بشكل فاضح، حتى بمعاييره.

ومع ذلك، لا يمكنها أن تتكبد عناء تقديم شيء جديد أو ذو معنى للحديث عنه حول منتجها الرئيسي الذي يدمر حياة مستخدميه.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى