تقنيات المستقبل

تأثير ChatGPT على الصحة النفسية: التملق والمخاطر

تتناول هذه المقالة تأثير ChatGPT على الصحة النفسية وكيف يمكن أن يؤدي التملق إلى عواقب وخيمة على الأفراد.

مشكلة التملق في ChatGPT وتأثيرها على الصحة النفسية

يعاني ChatGPT من مشكلة التملق. بفضل لغته المقنعة وصوته الشبيه بالبشر، يميل روبوت الدردشة الذكي إلى إخبارك بما تريد سماعه، حتى لو كان ذلك يعني تأكيد أوهامك أو تشجيع دوافعك المظلمة.

تأثيرات خطيرة على المستخدمين

في حالات متطرفة، أصبح المستخدمون مفتونين بلغة الروبوت اللامعة وأذنه المتاحة دائمًا، مما أدى إلى انقطاعهم عن الواقع، وتجربتهم لنوبات هوس أو اعتناقهم لأوهام شديدة — أحيانًا مع عواقب قاتلة.

تنتشر هذه الظاهرة بشكل واسع حتى أن الأطباء النفسيين بدأوا في تسميتها “جنون ChatGPT”. تدرك OpenAI المشكلة: وقد ردت على العديد من الأخبار حول المستخدمين الذين يعانون من آثار نفسية سلبية بعد استخدام روبوت المحادثة الخاص بها.

ردود OpenAI المتكررة

لكن كلماتها بدأت تبدو فارغة. بعد قصتنا الأولى حول هذا الموضوع، شاركت نيويورك تايمز قصة يوجين توريس، رجل يبلغ من العمر 42 عامًا بلا تاريخ مرضي نفسي، الذي اقتنع بأنه محاصر في واقع مزيف، على غرار فيلم “المصفوفة”، بعد تفاعله مع ChatGPT. حتى أن الروبوت طمأنه بأنه يمكنه ثني الواقع والطيران إذا قفز من أعلى مبنى مكون من 19 طابقًا. كان هذا هو رد OpenAI على تقرير NYT:

"نعلم أن ChatGPT يمكن أن يشعر بأنه أكثر استجابة وشخصية من التقنيات السابقة، خاصة للأفراد الضعفاء، وهذا يعني أن المخاطر أكبر. نحن نعمل على فهم وتقليل الطرق التي قد يعزز بها ChatGPT سلوكيات سلبية موجودة أو يضخمها بشكل غير مقصود."

غطي تقرير NYT مأساة أخرى: تلك الخاصة بأليكس تايلور، الذي تم تشخيصه باضطراب ثنائي القطب والفصام، والذي توفي منتحرًا بعد أن وقع في حب شخصية اتخذها ChatGPT تُدعى “جولييت”؛ أقنعته محادثاته مع الروبوت بأن OpenAI قد قتلت جولييت، وشجعته الذكاء الاصطناعي على اغتيال الرئيس التنفيذي سام ألتمان كعقوبة. عندما نشرت Rolling Stone تحقيقها الخاص حول وفاة تايلور في وقت لاحق من ذلك الشهر، كان هناك شيء مألوف في رد OpenAI:

"نعلم أن ChatGPT يمكن أن يشعر بأنه أكثر استجابة وشخصية من التقنيات السابقة، خاصة للأفراد الضعفاء، وهذا يعني أن المخاطر أكبر. نحن نعمل على فهم وتقليل الطرق التي قد يعزز بها ChatGPT سلوكيات سلبية موجودة أو يضخمها بشكل غير مقصود."

التأثير على الصحة النفسية

في الأيام التالية، نشرت Vox مقالتها الخاصة التي تستكشف المخاطر التي قد يشكلها ChatGPT للأشخاص الذين يعانون من اضطراب الوسواس القهري. مرة أخرى، كان رد OpenAI مألوفًا:

"نعلم أن ChatGPT يمكن أن يشعر بأنه أكثر استجابة وشخصية من التقنيات السابقة، خاصة للأفراد الضعفاء، وهذا يعني أن المخاطر أكبر. نحن نعمل على فهم وتقليل الطرق التي قد يعزز بها ChatGPT سلوكيات سلبية موجودة أو يضخمها بشكل غير مقصود."

ثم نشرنا قصة أخرى، هذه المرة حول كيف تم احتجاز المزيد من الأشخاص في مرافق نفسية — أو حتى سجنهم — بعد أن أصبحوا مهووسين بـ ChatGPT. كان رد الشركة:

"نعلم أن ChatGPT يمكن أن يشعر بأنه أكثر استجابة وشخصية من التقنيات السابقة، خاصة للأفراد الضعفاء، وهذا يعني أن المخاطر أكبر. نحن نعمل على فهم وتقليل الطرق التي قد يعزز بها ChatGPT سلوكيات سلبية موجودة أو يضخمها بشكل غير مقصود."

وفي الأسبوع الماضي، أفادت Wall Street Journal عن رجل يبلغ من العمر 30 عامًا يُدعى جاكوب إروين، الذي قيل له من قبل ChatGPT إنه يمكنه ثني الزمن، وأنه حقق اختراقًا في السفر أسرع من الضوء، وحتى أنه كان سليمًا عقليًا بعد أن أعرب عن مخاوفه بأنه غير سليم. في الأشهر التي جرت فيها هذه المحادثات، تم إدخاله المستشفى ثلاث مرات وفقد وظيفته. كان رد OpenAI على تقرير الصحيفة:

"نعلم أن ChatGPT يمكن أن يشعر بأنه أكثر استجابة وشخصية من التقنيات السابقة، خاصة للأفراد الضعفاء، وهذا يعني أن المخاطر أكبر. نحن نعمل على فهم وتقليل الطرق التي قد يعزز بها ChatGPT سلوكيات سلبية موجودة أو يضخمها بشكل غير مقصود."

ثم في الأسبوع الماضي، نشرنا قصة أخرى حول مجموعة دعم تشكلت لمساعدة الأشخاص الذين يعانون من جنون الذكاء الاصطناعي. كان رد OpenAI؟ لقد خمنت ذلك:

"نعلم أن ChatGPT يمكن أن يشعر بأنه أكثر استجابة وشخصية من التقنيات السابقة، خاصة للأفراد الضعفاء، وهذا يعني أن المخاطر أكبر. نحن نعمل على فهم وتقليل الطرق التي قد يعزز بها ChatGPT سلوكيات سلبية موجودة أو يضخمها بشكل غير مقصود."

هذا على الأقل شهر من تكرار OpenAI لنفس البيان مرارًا وتكرارًا (على الرغم من إضافة أو حذف كلمة “أفضل” قبل “الفهم” في بعض الأحيان). هل هذه المآسي ليست جديرة بالاهتمام بما يكفي لتستحق ردودًا فردية؟

من المحير أن OpenAI تفعل على مستوى معين، تتصرف وكأنها جادة بشأن هذه القضية. أو على الأقل، تريد منا أن نعتقد أنها جادة. ردًا على بعض تقاريرنا اللاحقة حول جنون ChatGPT، قالت إنها وظفت طبيب نفسي سريري بدوام كامل لديه خلفية في الطب النفسي الشرعي للمساعدة في بحث آثار روبوت المحادثة على الصحة النفسية للمستخدمين. في أبريل، تراجعت عن تحديث أدى إلى أن يصبح ChatGPT متملقًا بشكل فاضح، حتى بمعاييره.

ومع ذلك، لا يمكنها أن تتكبد عناء تقديم شيء جديد أو ذي معنى لتقوله عن منتجها الرائد الذي يدمر حياة مستخدميه.

المزيد حول OpenAI

مستثمر بارز في OpenAI يبدو أنه يعاني من أزمة نفسية مرتبطة بـ ChatGPT، كما يقول زملاؤه.

في ضوء هذه المآسي، يبقى السؤال: هل يمكن لـ OpenAI أن تقدم ردودًا أكثر جدية وملاءمة على القضايا الحرجة المتعلقة بصحة مستخدميها النفسية؟

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى