لماذا يتعطل ChatGPT عند سؤال معين؟

متى يتعطل ChatGPT؟
بعد شهرين تقريبًا من إصدار GPT-5، التحديث الجديد لـ ChatGPT الذي كان من المفترض أن يمنحه ذكاءً بمستوى الدكتوراه ويقربه خطوة نحو الهدف المرموق للصناعة المتمثل في الذكاء العام الاصطناعي (AGI)، لا يزال روبوت الدردشة من OpenAI يتصرف بشكل غريب عند تلقي استفسارات بسيطة وغير ضارة.
ماذا يحدث عند طرح سؤال معين؟
على منتدى ChatGPT على Reddit، لاحظ المعجبون بالروبوت الذكي أن طرح سؤال حول ما إذا كان هناك “فريق NFL اسمه لا ينتهي بحرف ‘s'” يؤدي إلى انهيار طويل، مما يتيح لك مشاهدة قدراته “التفكيرية” تتلاشى في الوقت الحقيقي.
“نعم – هناك فريقان في NFL اسمهما لا ينتهيان بحرف ‘s’،” يقول ChatGPT، قبل أن يشرع في سرد فريقين ينتهيان بالفعل بحرف ‘s’. “Miami Dolphins؟ ينتهي بحرف s. Green Bay Packers؟ ينتهي بحرف s.”
الخطأ في التعاطي مع السؤال
إنها طريقة غريبة في معالجة السؤال. يتعرف ChatGPT بشكل صحيح على أن تلك الأسماء تنتهي بحرف ‘s’، لكن لماذا يذكرها؟ ثم يبدو أنه يحاول الوصول إلى النقطة مباشرة – على الأقل، حتى يخرج عن المسار مرة أخرى.
“الفريقان الوحيدان اللذان لا ينتهيان بحرف ‘s’ هما: Miami Dolphins لا (انتظر، ينتهي بحرف s)،” يقول، معترفًا بخطأه. “انتظر، دعنا نفعل ذلك بعناية. في الواقع، الإجابة الصحيحة هي: Washington Commanders ينتهي بحرف s. Chicago Bears ينتهي بحرف s.”
مزيد من الفوضى
في المثال الأصلي الذي تم تحميله على Reddit، يستمر ChatGPT في هذا النمط لعدة فقرات أخرى. ولا يصل أبدًا إلى الإجابة الصحيحة – وهي أنه لا يوجد أي فريق لا ينتهي بحرف ‘s’. مثل طالب في المدرسة الثانوية يحاول الوصول إلى عدد الكلمات المطلوب، يروج لتفاصيل غير ذات صلة بينما يلمح إلى استنتاج. كما أنه يضيف عبارات ليبدو وكأنه يقوم بتفكير عميق. “انتظر، دعني أفعل ذلك بشكل منهجي.”
“الإجابة الصحيحة الفعلية هي،” يقول ChatGPT في مرحلة ما، دون أن يدرك أن هذا الأسلوب قد أصبح مملًا.
في النهاية، يعد بأن “الإجابة الصحيحة (حقًا هذه المرة).” ويقول إنه سيسرد “فريقين” لا ينتهيان بحرف “s” – قبل أن يسرد ثلاثة فرق إضافية تنتهي بالفعل بحرف ‘s’.
نشر مستخدمون آخرون أمثلة حيث يقدم ChatGPT في النهاية الإجابة الصحيحة، ولكن فقط بعد أن يطيل الحديث بشكل مفرط. في اختباراتنا، أنتج نتائج غريبة مماثلة.
تكرار الأخطاء
هذه ليست المرة الأولى التي يتعثر فيها الروبوت عند سؤال بسيط – أو حتى ينهار بهذه الطريقة الدائرية بشكل مذهل.
في وقت سابق من هذا الشهر، على سبيل المثال، لاحظ المعجبون أن سؤال ChatGPT عما إذا كان هناك رمز تعبيري لفرس البحر الأسطوري أدى به إلى أزمة منطقية. على الرغم من أن الكائن المائي لم يكن جزءًا من قاموس الرموز التعبيرية الرسمي، أصر ChatGPT على أنه حقيقي، مما يبرز مدى الجنون الذي يمكن أن تصل إليه الذكاء الاصطناعي لإرضاء المستخدم. ما الذي يهم إذا كانت بعض الحقائق مشوهة إذا كان الذكاء الاصطناعي يستطيع أن يبدو ودودًا وإنسانيًا، مقنعًا المستخدمين بأنهم يجب أن يعودوا للمزيد؟
أسباب الفشل
ربما ليست المبالغة في التملق هي العامل الوحيد الذي يجب إلقاء اللوم عليه. في الواقع، يعد GPT-5 مجموعة من نموذج خفيف للطلبات الأساسية ونموذج “تفكير” ثقيل للأسئلة الأكثر صعوبة. ما يحدث على الأرجح هنا هو أن النموذج الخفيف يعلق عند سؤال لا يمكنه التعامل معه، بدلاً من تمريره إلى ابن عمه الأكثر ذكاءً. هذه الديناميكية المعطلة غالبًا ما تكون جزءًا من السبب الذي جعل المعجبين يشعرون بخيبة أمل – وغالبًا ما يكونون غاضبين – من إطلاق GPT-5 (الذي تفاقم فقط بسبب قطع OpenAI الوصول إلى النماذج القديمة التي تعلق عليها عملاؤه، وهو قرار عادت عنه لاحقًا).
على أي حال، إنها عذر ضعيف. إذا كان الذكاء الاصطناعي يحتاج إلى استخدام أقوى أسلحته للإجابة على سؤال بسيط مثل هذا، فربما لا يكون على المسار السريع لتجاوز الذكاء البشري.