كيف تعمل الأشياء

فشل الذكاء الاصطناعي في اختبارات المنطق: دراسات تكشف ضعف التفكير التحليلي

تتزايد مزاعم شركات الذكاء الاصطناعي بشأن قدرة نماذجها على “التفكير”، لكن دراستين حديثتين تضعان هذه الادعاءات موضع شك. فعند مطالبة النماذج بتفسير منطقها، تخفق معظمها في المهمة، مما يثبت أنها لا تمارس التفكير التحليلي بقدر ما تعيد صياغة أنماط تدريبها. النتيجة؟ إجابات واثقة، ولكنها غير ذكية.

كشفت دراسة جديدة أجراها باحثو شركة Apple عن نقطة ضعف أساسية في أشهر أنظمة الذكاء الاصطناعي الحالية، حيث تفشل في حل الألغاز التي تتطلب التفكير المرحلي. في ورقة بحثية، اختبر الفريق عدة نماذج على لغز برج هانوي – وهو لغز منطقي كلاسيكي – ووجدوا أن الأداء ينهار مع ازدياد التعقيد.

عصر الحوسبة الخارقة الذكية والمستدامة: مستقبل AMD وفقًا لـ CTO مارك بيبرماستر

ما هو برج هانوي؟

يتطلب اللغز نقل مجموعة من الأقراص من وتد إلى آخر، مع احترام قواعد تتعلق بحجم الأقراص وترتيبها. بالنسبة للبشر، يُعد هذا اختبارًا كلاسيكيًا للتخطيط والتفكير التكراري. أما بالنسبة لنماذج اللغة التي تم تدريبها على توقع الكلمة التالية، فالتحدي يكمن في تطبيق قيود ثابتة عبر خطوات متعددة دون فقدان الهدف.

لم يطلب الباحثون من النماذج حل اللغز فحسب، بل شرح خطواتها أيضًا. وبينما أدت النماذج أداءً جيدًا مع قرصين أو ثلاثة، بدأت تتفكك خوارزمياتها مع زيادة عدد الأقراص. إذ أخطأت في القواعد، وتناقضت مع خطواتها السابقة، بل وأجرت تحركات غير صحيحة بكل ثقة – حتى عند استخدام تعليمات سلسلة التفكير (Chain of Thought). النتيجة؟ النماذج لم تكن تفكر بل كانت تخمن.

دراسة ETH Zurich: الفشل يتكرر

تتطابق نتائج Apple مع دراسة أخرى أجريت في أبريل من ETH Zurich و INSAIT، حيث تم اختبار أفضل نماذج الذكاء الاصطناعي في مسائل أولمبياد الرياضيات الأمريكي 2025، والتي تتطلب إثباتات مكتوبة كاملة. من بين ما يقارب 200 محاولة، لم تُنتج أي منها حلاً كاملاً. النموذج الأقوى، Gemini 2.5 Pro من Google، حصل على 24% من النقاط فقط، بينما لم يتجاوز نموذج o3-mini من OpenAI نسبة 2%.

لم تكن المشكلة فقط في عدم الوصول للحلول، بل في ارتكاب أخطاء منطقية أساسية، وتجاهل خطوات ضرورية، وطرح تناقضات، وكل ذلك بأسلوب لغوي يوحي بالثقة.

الناقد المعروف غاري ماركوس وصف نتائج Apple بأنها “مدمرة لنماذج اللغة الكبيرة”، وكتب:

“من المحرج فعلاً ألا يتمكن الذكاء الاصطناعي من حل برج هانوي، وهو ما تم حله بالذكاء الاصطناعي عام 1957، ويُدرّس لطلبة السنة الأولى.”

نماذج الذكاء الاصطناعي تفشل حتى مع التعليمات الواضحة

حتى عند إعطاء خوارزميات صريحة للنماذج، لم يتحسن أداؤها. وصرّح الباحث إيمان ميرزاده:

“عمليتها ليست منطقية ولا ذكية.”

هل هناك أمل؟

المهندس شون جودكي رأى في الفشل جانبًا كاشفًا، حيث كتب في تحليله:

“عند وصول النموذج لعدد أقراص كبير، يدرك أن توليد كل التحركات يدويًا غير ممكن، فيبدأ في البحث عن اختصارات – ويفشل.”

وأوضح أن ما يحدث فعليًا ليس فشلًا في التفكير، بل تغيرًا في نوع المهارة المطلوبة. فمع ارتفاع مستوى التعقيد، تتحول المهمة من حل متسلسل إلى محاولة ابتكار استراتيجية مختصرة – وغالبًا ما يكون ذلك على حساب المنطق.

فرغم ترويج شركات التقنية للذكاء الاصطناعي كقادر على محاكاة التفكير، فإن النتائج تشير إلى أن ما يُعرض هو محاكاة نمطية أكثر منه منطقًا فعليًا. النماذج غالبًا ما تقلد شرحًا منطقيًا، لكنها لا تدرك السياق بشكل متماسك، ولا تتبع السبب والنتيجة بدقة.

جنسن هوانغ: أنظمة الذكاء الاصطناعي الفيزيائية من نفيديا تفتح سوقاً بقيمة 50 تريليون دولار

لا تقترح ورقة Apple حلولًا مباشرة، لكنها تتماشى مع الدعوات المتزايدة لاستخدام مقاربات هجينة: الجمع بين نماذج اللغة والمنطق الرمزي، أو أنظمة التحقق من الصحة، أو قيود مخصصة لكل مهمة. هذه المقاربات قد لا تُنتج ذكاءً حقيقيًا، لكنها تساعد في تقليل الإجابات الخاطئة المقدمة بثقة.

حتى يتحقق ذلك، سيظل “التفكير المحاكى” كما اسمه: محاكاة – مفيد أحيانًا، مثير للإعجاب أحيانًا، لكنه بعيد عن أن يكون ذكاءً حقيقيًا.

المصدر: TechSpot

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى