الذكاء الاصطناعي

دروس مهمة من Motif لتدريب نماذج اللغة الكبيرة في المؤسسات

تتواصل المنافسة في مجال الذكاء الاصطناعي، ومع ظهور نماذج جديدة، تقدم شركة Motif Technologies دروسًا قيمة لتدريب نماذج اللغة الكبيرة في المؤسسات.

أربعة دروس مهمة لتدريب نماذج اللغة الكبيرة في المؤسسات

لقد سمعنا (وكتبنا، هنا في VentureBeat) الكثير عن سباق الذكاء الاصطناعي التوليدي بين الولايات المتحدة والصين، حيث كانت تلك البلدان هي الأكثر نشاطًا في تقديم نماذج جديدة (مع تحية خاصة لشركة Cohere في كندا وMistral في فرنسا).

لكن الآن، بدأت شركة ناشئة كورية تُحدث ضجة: الأسبوع الماضي، أصدرت الشركة المعروفة باسم Motif Technologies نموذج Motif-2-12.7B-Reasoning، وهو نموذج صغير الوزن مفتوح المعلمات يتمتع بنتائج مرجعية مثيرة للإعجاب، ليصبح بسرعة النموذج الأكثر أداءً من تلك البلاد وفقًا لمختبر التحليل المستقل Artificial Analysis (متفوقًا حتى على نموذج GPT-5.1 العادي من الشركة الرائدة OpenAI في الولايات المتحدة).

لكن الأهم بالنسبة لفرق الذكاء الاصطناعي في المؤسسات هو أن الشركة نشرت ورقة بيضاء على arxiv.org تحتوي على وصف ملموس وقابل للتكرار لتدريب النموذج، مما يكشف عن مصدر أداء التفكير الفعلي — وأين تفشل الجهود الداخلية لنماذج اللغة الكبيرة.

للمؤسسات التي تبني أو تضبط نماذجها الخاصة خلف جدار الحماية، تقدم الورقة مجموعة من الدروس العملية حول توافق البيانات، وبنية السياق الطويل، واستقرار التعلم المعزز، والتي يمكن تطبيقها مباشرة في البيئات المؤسسية. إليك الدروس الأربعة:

1. تحسين التفكير يأتي من توزيع البيانات، وليس حجم النموذج

واحدة من النتائج الأكثر صلة لشركة Motif لفرق المؤسسات هي أن بيانات التفكير الاصطناعية تساعد فقط عندما يتوافق هيكلها مع أسلوب تفكير النموذج المستهدف.

تظهر الورقة اختلافات قابلة للقياس في أداء الترميز بناءً على أي نموذج “معلم” قام بتوليد آثار التفكير المستخدمة أثناء الضبط الإشرافي.

بالنسبة للمؤسسات، هذا يقوض اختصارًا شائعًا: توليد كميات كبيرة من بيانات سلسلة التفكير الاصطناعية من نموذج متقدم واعتقاد أنها ستنتقل بسلاسة. تشير نتائج Motif إلى أن آثار التفكير غير المتوافقة يمكن أن تضر بالأداء، حتى لو بدت ذات جودة عالية.

الدرس هنا عملي، وليس أكاديمي: يجب على الفرق التحقق من أن بياناتها الاصطناعية تعكس التنسيق، والإطناب، ودقة الخطوات التي تريدها في وقت الاستدلال. تعتبر حلقات التقييم الداخلية أكثر أهمية من نسخ مجموعات البيانات الخارجية.

2. التدريب على السياق الطويل هو مشكلة بنية تحتية أولاً

تدرب Motif على سياق 64K، لكن الورقة توضح أن هذا ليس مجرد تعديل في الترميز أو نقطة التحقق.

يعتمد النموذج على التوازي الهجين، واستراتيجيات تقسيم دقيقة، وتسجيل نقاط تنشيط عدواني لجعل التدريب على السياق الطويل ممكنًا على أجهزة Nvidia H100.

بالنسبة لمطوري المؤسسات، الرسالة صادمة لكنها مفيدة: لا يمكن إضافة القدرة على السياق الطويل لاحقًا.

إذا كانت سير العمل المعتمدة على الاسترجاع أو الوكالة أساسية لحالة استخدام العمل، يجب تصميم طول السياق في مجموعة التدريب منذ البداية. خلاف ذلك، تخاطر الفرق بدورات إعادة تدريب مكلفة أو ضبط غير مستقر.

3. ضبط التعلم المعزز يفشل بدون تصفية البيانات وإعادة الاستخدام

تؤكد عملية ضبط التعلم المعزز (RLFT) لشركة Motif على تصفية واعية للصعوبة — الاحتفاظ بالمهام التي تقع معدلات النجاح فيها ضمن نطاق محدد — بدلاً من توسيع التدريب على المكافآت بشكل عشوائي.

هذا يعالج مباشرة نقطة ألم يواجهها العديد من فرق المؤسسات عند التجريب مع التعلم المعزز: تراجع الأداء، انهيار النمط، أو المكاسب الهشة التي تختفي خارج المعايير. كما تعيد Motif استخدام المسارات عبر السياسات وتوسع نطاقات القص، متبادلة النقاء النظري لاستقرار التدريب.

الدرس المؤسسي واضح: التعلم المعزز هو مشكلة أنظمة، وليس مجرد مشكلة نموذج مكافأة. بدون تصفية دقيقة، وإعادة استخدام، وتوازن متعدد المهام، يمكن أن يؤدي التعلم المعزز إلى عدم استقرار النماذج التي هي جاهزة للإنتاج.

4. تحسين الذاكرة يحدد ما هو ممكن

تسلط استخدام Motif لتحسينات على مستوى النواة لتقليل ضغط الذاكرة في التعلم المعزز الضوء على قيد غالبًا ما يتم تجاهله في البيئات المؤسسية: الذاكرة، وليس الحوسبة، هي غالبًا ما تكون عنق الزجاجة. تحدد تقنيات مثل تحسين مستوى دالة الخسارة ما إذا كانت مراحل التدريب المتقدمة ممكنة على الإطلاق.

بالنسبة للمنظمات التي تدير مجموعات مشتركة أو بيئات منظمة، يعزز هذا الحاجة إلى استثمار في الهندسة على مستوى منخفض، وليس فقط تجربة بنية النموذج.

لماذا هذا مهم لفرق الذكاء الاصطناعي في المؤسسات

يتم وضع Motif-2-12.7B-Reasoning كمنافس لنماذج أكبر بكثير، لكن قيمته الحقيقية تكمن في الشفافية حول كيفية تحقيق تلك النتائج. تجادل الورقة — بشكل ضمني ولكن مقنع — بأن أداء التفكير يتم كسبه من خلال تصميم تدريب منضبط، وليس من خلال حجم النموذج وحده.

بالنسبة للمؤسسات التي تبني نماذج لغة كبيرة خاصة بها، الدرس عملي: استثمر مبكرًا في توافق البيانات، والبنية التحتية، واستقرار التدريب، أو خطر إنفاق ملايين في ضبط نماذج لا تفكر بشكل موثوق في الإنتاج.

مع الاستفادة من هذه الدروس، يمكن للمؤسسات تحسين استراتيجياتها في تدريب نماذج اللغة الكبيرة وتحقيق نتائج أفضل في الأداء.

مقالات ذات صلة

زر الذهاب إلى الأعلى