هل فعلاً نماذج الذكاء الاصطناعي الحديثة قادرة على “التفكير”؟ بحث جديد من آبل يشكك في ذلك

أصدر باحثون في شركة آبل ورقة بحثية مثيرة للجدل تشكك في قدرات “التفكير” التي تدّعي أحدث وأقوى نماذج اللغات الكبيرة (Large Language Models) امتلاكها.
في هذه الورقة، يطرح فريق من خبراء التعلم الآلي حججًا مفادها أن صناعة الذكاء الاصطناعي تبالغ بشكل كبير في تقدير قدرات نماذجها الأكثر تطورًا، بما في ذلك نموذج o3 من OpenAI، وClaude 3.7 من Anthropic، ونموذج Gemini من Google.
على وجه الخصوص، ينتقد الباحثون ادعاءات شركات مثل OpenAI التي تقول إن نماذجها المتقدمة قادرة الآن على “التفكير” — وهي القدرة التي اعتمدت عليها الشركة التي يقودها سام ألتمان بشكل متزايد في التسويق خلال العام الماضي — والتي يصفها فريق آبل بأنها مجرد “وهم التفكير.”
تُعد هذه النتائج ملحوظة بشكل خاص، نظرًا لأن آبل تتعرض لانتقادات بأنها متأخرة كثيرًا عن منافسيها في مجال الذكاء الاصطناعي. حيث اختارت الشركة مسارًا أكثر حذرًا في دمج التقنية ضمن منتجاتها الموجهة للمستهلك، مع نتائج متباينة حتى الآن.
نظريًا، تقوم نماذج التفكير بتفكيك أوامر المستخدم إلى أجزاء واستخدام خطوات متتابعة تُعرف بـ”سلسلة التفكير” للوصول إلى الإجابات. لكن الآن، يشكك كبار خبراء آبل في ما إذا كانت نماذج الذكاء الاصطناعي المتطورة قادرة فعلاً على “التفكير” كما يُروج لها.
وكتب الفريق في الورقة:
“بينما تُظهر هذه النماذج تحسنًا في أداء اختبارات التفكير، فإن قدراتها الأساسية، وخصائص التوسع، وقيودها لا تزال غير مفهومة بشكل كافٍ.”
ويضم الفريق، الذي يشمل سامي بنجيو مدير بحوث الذكاء الاصطناعي والتعلم الآلي في الشركة، أن الأساليب الحالية لتقييم الأداء غالبًا ما تعاني من “تلوث البيانات ولا توفر رؤى واضحة حول هيكل وجودة مسارات التفكير.”
وباستخدام “بيئات الألغاز القابلة للتحكم”، قدّر الفريق قدرة النماذج على “التفكير” وخرج باكتشاف مدمر.
“من خلال تجارب مكثفة على ألغاز متنوعة، نُظهر أن النماذج الرائدة تواجه انهيارًا كاملًا في الدقة بعد تجاوز تعقيد معين،” كما ورد في الورقة.
وبفضل “حد مقياس معكوس غير بديهي”، تتراجع قدرات التفكير لدى النماذج “رغم توفر ميزانية رموز مناسبة.”
بعبارة أخرى، حتى مع التدريب الكافي، تكافح النماذج مع المشكلات التي تتجاوز عتبة تعقيد معينة — نتيجة لما وصفته الورقة بظاهرة “الإفراط في التفكير.”
ويُذكر هذا الاكتشاف اتجاهًا أوسع؛ حيث أظهرت اختبارات الأداء أن جيل النماذج الحديثة أكثر ميلاً للاختلاق (hallucination)، وليس أقل، مما يشير إلى أن التقنية قد تسير في اتجاه خاطئ بشكل جوهري.
لا تزال آلية اختيار نماذج التفكير للمسارات التي تسلكها غامضة، بحسب الباحثين في آبل.
واختتم الفريق:
“وجدنا أن نماذج التفكير الكبيرة لديها قيود في الحساب الدقيق، ولا تستخدم خوارزميات صريحة، وتتسم بالتفكير غير المتسق عبر الألغاز.”
ويؤكد الباحثون أن نتائجهم تثير “أسئلة حاسمة” حول “القدرات الحقيقية على التفكير” للنماذج الحالية، مما يضعف طريقًا جديدًا مزعومًا في الصناعة المتنامية.
وذلك رغم ضخ عشرات المليارات من الدولارات في تطوير هذه التقنية، مع بناء شركات مثل OpenAI، وGoogle، وMeta مراكز بيانات ضخمة لتشغيل نماذج ذكاء اصطناعي تستهلك طاقة متزايدة.
هل يمكن أن يكون اكتشاف فريق آبل “إنذارًا مبكرًا” يشير إلى أن التقنية وصلت إلى “حاجز”؟
أم أن الشركة تحاول فقط حماية موقعها، منتقدة منافسيها المتفوقين بينما هي متأخرة، كما يقترح البعض؟
يظل هذا استنتاجًا مفاجئًا، خاصة مع الوضع الحرج لآبل في مجال الذكاء الاصطناعي: ففي الوقت الذي ينتقد فيه باحثوها المسار الحالي للتقنية، تعد الشركة بإطلاق مجموعة أدوات ذكاء اصطناعي لأجهزتها مثل الآيفون والماك بوك.
وتختتم الورقة بالقول:
“تُشكك هذه الرؤى في الافتراضات السائدة حول قدرات نماذج التفكير الكبيرة وتقترح أن الأساليب الحالية قد تواجه حواجز جوهرية أمام تحقيق التفكير العام القابل للتعميم.”