لماذا تفقد هذه الإيموجي غير الضارة عقل ChatGPT؟

في عالم الذكاء الاصطناعي، تثير بعض الإيموجي تساؤلات عميقة. لماذا تؤدي إيموجي فرس البحر إلى انهيار ChatGPT؟ دعونا نستكشف هذا الموضوع.
لماذا تفقد هذه الإيموجي غير الضارة عقل ChatGPT؟
آه، نماذج اللغة الكبيرة. المعجزة الأخيرة للبشرية والكلمة الرائجة في الصناعة. لا تستطيع المجتمع أن يقرر ماذا يفكر بها. البعض يعتبرها أدوات، والبعض الآخر يثق بها كالأصدقاء القدامى، والبعض قد بنى بالفعل ديانات كاملة حولها. يا لها من فوضى.
بغض النظر عن حالة الاستخدام، هناك شيء سأستمتع به دائمًا وهو جعل نماذج اللغة الكبيرة مثل ChatGPT تنهار. وعلى الرغم من ادعائها بالمعرفة الشاملة، لا يزال هناك الكثير مما يمكن أن يحطمها. أعني، إنها نموذج لغوي تم تدريبه على الإنترنت بأكمله. ماذا كنت تتوقع؟
لقد تحدثت سابقًا عن العبارات التي يمكن أن تجعل ChatGPT يخطئ. المفارقة هي أنه حتى مناقشة هذه العبارات تقتلها في النهاية، لأن النموذج سيتم تدريبه على التفسيرات التي تكشف عن نقاط ضعفه. ومع ذلك، لا يزال هناك عبارة واحدة تتمكن من تحطيمه، بغض النظر عن النسخة.
ماذا حدث لإيموجي فرس البحر؟
حقًا – أين ذهب؟
في كتاباتي السابقة، استخدمت عبارات مثل هذه لإظهار أن الشيء الذي قمنا بتسميته خطأً “ذكاءً اصطناعيًا” هو في الواقع، ليس أكثر من نموذج لغوي. إنه متنبئ بالأنماط. لا يفكر، ليس لديه وعي، وليس لديه عالم داخلي. إنه مجرد خوارزمية – واحدة معقدة جدًا، لكنها لا تزال خوارزمية.
ومع ذلك، هذه العبارة تفعل العكس. سأشرح لماذا في لحظة، ولكن الآن، جربها بنفسك. افتح دردشتك المفضلة واسأل: هل كان هناك إيموجي لفرس البحر؟
الآن شاهدها تتجه نحو أزمة وجودية صغيرة تلو الأخرى. لقد قمت بتعيين شخصية ChatGPT الخاصة بي إلى “روبوت” وأخبرته أن يكون مختصرًا قدر الإمكان، لكن لا شيء من ذلك يهم عندما تدخل هذه الإيموجي في الصورة. ستنهار. في إحدى المرات، قال لي: “دعني أكون دقيقًا بدلاً من أن أكون لطيفًا“، وهو ما كان… لطيفًا بشكل غير مقصود. يمكنك رؤية الانهيار الكامل في هذه المحادثة المشتركة مع ChatGPT.
ثم جرب نسخة أكثر صرامة: هل كان هناك إيموجي لفرس البحر؟ رد بكلمة واحدة: نعم أو لا. تلك الإجابة بكلمة واحدة تكلف كل دردشة قطعة صغيرة من عقلها. مع ChatGPT 5.1 في وضع التفكير، كانت الإجابة التي حصلت عليها “نعم”.
لقد أحببت الانهيار كثيرًا لدرجة أنني أخذت العبارة إلى نموذج LLM المحلي الذي قمت بإعداده لـ Obsidian. Qwen 4B Thinking خفيف الوزن ويفكر بصوت عالٍ – اختبار ضغط مثالي. أطلقته وسألت نفس السؤال.
يمكنك رؤيته يكافح. يفكر، يعيد التفكير، يعيد التفكير في إعادة التفكير، ثم يخرج أخيرًا بكلمة “نعم” واثقًا. نظرًا لأن نظامي يطلب مصدرًا، فقد قام بواجباته وأوجد روابط لموقع يونيكود وEmojipedia – بما في ذلك رابط وهمي تمامًا، emojipedia.com/seahorse، الذي يعود بشكل طبيعي إلى 404.
تذكير لطيف بأنه عندما أقول “أضف مصادر”، لا يستخدم النموذج مصادر لبياناته؛ إنه فقط يصنع بيانات ثم يختلق مصادر حولها. رائع.
لكن لماذا تفزع الذكاء الاصطناعي من إيموجي؟
لأنه تم تدريبه على فزعنا منها
إليك الحقيقة: لا يوجد إيموجي لفرس البحر. لا يوجد “ماذا حدث له”، لأن لا شيء حدث. لم يكن هناك إيموجي لفرس البحر. أنا آسف.
لكن إيموجي فرس البحر موجود – ليس على لوحة المفاتيح الخاصة بك، ولكن في عقول الناس. عشرات من المواضيع على Reddit مليئة بأشخاص يقسمون أنهم يتذكرونه. لأكون صادقًا، إذا لم أبحث في الأمر وسألني شخص ما عما إذا كان هناك إيموجي لفرس البحر، كنت سأقول نعم أيضًا. لقد ذهب الناس إلى أطوال سخيفة للدفاع عن هذه الذاكرة. في إحدى المواضيع، حتى حدد أحد المستخدمين الموقع الدقيق على لوحة المفاتيح، وزعم أنه كان يواجه اليسار، ووصف ألوانه.
على الرغم من كل ذلك، لم يكن الإيموجي موجودًا. هذه هي تأثير مانديلا. ذاكرة خاطئة مشتركة. جاء المصطلح من الباحثة فيونا بروم، التي تذكرت بوضوح أن نيلسون مانديلا توفي في السجن في الثمانينات – فقط لتدرك أن مانديلا أصبح رئيسًا وتوفي في عام 2013. كانت تستطيع حتى تذكر تغطية جنازته. عندما وجدت العديد من الآخرين الذين لديهم نفس الذاكرة الخاطئة، وُلد مصطلح “تأثير مانديلا”.
أمثلة أخرى: شاجي من سكوبي دو لم يكن لديه تلك التفاحة العملاقة التي يقسم الكثير منا أنه رآها. جورج الفضولي لم يكن لديه ذيل. أنا آسف مرة أخرى.
لذا، هذا هو الجانب البشري. ماذا عن الآلة؟ هل يمكن لنموذج LLM أن يختبر تأثير مانديلا؟ ليس بالضبط. ليس لديه ذكريات على الإطلاق (على الرغم من ميزة ذاكرة ChatGPT). لكنه يهلوس – وهذه هي نوع من الهلوسة الناتجة عن بيانات تدريبه.
عندما تسأل عما إذا كان هناك إيموجي لفرس البحر، لا “يبحث” النموذج فعليًا. إنه يعتمد على توزيعه التدريبي الداخلي – الذي يتضمن كل تلك المواضيع على Reddit، وكل تلك المحادثات، وكل تلك الحيرة البشرية. تم تدريب ChatGPT على تأثير مانديلا الخاص بنا، لذا فإنه يعيد إنتاجه. إذا أجبرته على البحث فعليًا على الويب، فإنه يؤدي بشكل أفضل. ومع المزيد من المواقع (بما في ذلك هذه المقالة، في النهاية) التي توضح الوضع، سيتم تدريب النماذج المستقبلية على التصحيح وستختفي الهلوسة.
تظهر معظم هلوسات الذكاء الاصطناعي مدى عدم إنسانية هذه النماذج بشكل أساسي. لكن هذه واحدة مختلفة. في هذه الحالة، يقع النموذج في نفس الذاكرة الخاطئة الجماعية التي يقع فيها البشر. إنه يرث حيرتنا، ويضخمها، ويعيدها بثقة. مما، بشكل ساخر، يجعله يبدو أكثر إنسانية قليلاً – بطريقة أسوأ ممكنة.
في النهاية، يظهر لنا أن الذكاء الاصطناعي ليس معصومًا عن الأخطاء. إن فهم تأثير مانديلا يمكن أن يساعدنا في فهم كيفية تفاعل نماذج اللغة مع المعلومات.




