نموذج Jamba Reasoning 3B: الذكاء الاصطناعي الصغير والفعال

بينما يتسابق معظم عالم الذكاء الاصطناعي لبناء نماذج لغوية أكبر مثل GPT-5 من OpenAI وClaude Sonnet 4.5 من Anthropic، تتبع شركة AI21 الإسرائيلية الناشئة مسارًا مختلفًا.
لقد كشفت AI21 مؤخرًا عن نموذج Jamba Reasoning 3B، وهو نموذج يحتوي على 3 مليارات معلمة. هذا النموذج المضغوط والمفتوح المصدر يمكنه التعامل مع نوافذ سياقية ضخمة تصل إلى 250,000 رمز (مما يعني أنه يمكنه “تذكر” والتفكير في نصوص أكثر بكثير من النماذج اللغوية التقليدية) ويمكن تشغيله بسرعة عالية، حتى على الأجهزة الاستهلاكية. يبرز الإطلاق تحولًا متزايدًا: النماذج الأصغر والأكثر كفاءة يمكن أن تشكل مستقبل الذكاء الاصطناعي بنفس القدر الذي تشكله النماذج الكبيرة.
يقول أوري غوشن، الرئيس التنفيذي المشارك لشركة AI21، في مقابلة مع IEEE Spectrum: “نحن نؤمن بمستقبل أكثر لامركزية للذكاء الاصطناعي – حيث لا يعمل كل شيء في مراكز البيانات الضخمة”. “ستظل النماذج الكبيرة تلعب دورًا، لكن النماذج الصغيرة والقوية التي تعمل على الأجهزة سيكون لها تأثير كبير” على كل من المستقبل واقتصاديات الذكاء الاصطناعي، كما يقول. تم بناء Jamba للمطورين الذين يرغبون في إنشاء تطبيقات ذكاء اصطناعي على الحافة وأنظمة متخصصة تعمل بكفاءة على الأجهزة.
تم تصميم Jamba Reasoning 3B من AI21 للتعامل مع تسلسلات نصية طويلة ومهام صعبة مثل الرياضيات والترميز والتفكير المنطقي – كل ذلك أثناء العمل بسرعة مثيرة للإعجاب على الأجهزة اليومية مثل أجهزة الكمبيوتر المحمولة والهواتف المحمولة. يمكن لـ Jamba Reasoning 3B أيضًا العمل في إعداد هجين: يتم التعامل مع المهام البسيطة محليًا بواسطة الجهاز، بينما يتم إرسال المشكلات الأكثر تعقيدًا إلى خوادم سحابية قوية. وفقًا لـ AI21، يمكن أن يقلل هذا التوجيه الأكثر ذكاءً من تكاليف بنية الذكاء الاصطناعي بشكل كبير لبعض الأحمال – ربما بمقدار مرتبة من حيث الحجم.
نموذج LLM صغير ولكنه قوي
مع 3 مليارات معلمة، يُعتبر Jamba Reasoning 3B صغيرًا وفقًا لمعايير الذكاء الاصطناعي اليوم. تعمل نماذج مثل GPT-5 أو Claude بأكثر من 100 مليار معلمة، حتى النماذج الأصغر، مثل Llama 3 (8B) أو Mistral (7B)، هي أكثر من ضعف حجم نموذج AI21، كما يشير غوشن.
تجعل هذه الحجم المضغوط من المدهش أن نموذج AI21 يمكنه التعامل مع نافذة سياقية تصل إلى 250,000 رمز على الأجهزة الاستهلاكية. تقدم بعض النماذج الاحتكارية، مثل GPT-5، نوافذ سياقية أطول، لكن Jamba يحدد معيارًا جديدًا بين النماذج المفتوحة المصدر. كان الرقم القياسي السابق للنموذج المفتوح هو 128,000 رمز، والذي كان تحتفظ به Llama 3.2 من ميتا (3B) وPhi-4 Mini من مايكروسوفت وDeepSeek R1، والتي جميعها نماذج أكبر بكثير. يمكن لـ Jamba Reasoning 3B معالجة أكثر من 17 رمزًا في الثانية حتى عند العمل بكامل طاقته – أي مع مدخلات طويلة جدًا تستخدم نافذة سياقية كاملة تصل إلى 250,000 رمز. العديد من النماذج الأخرى تبطئ أو تواجه صعوبة عندما يتجاوز طول مدخلاتها 100,000 رمز.
يشرح غوشن أن النموذج مبني على بنية تُدعى Jamba، والتي تجمع بين نوعين من تصميمات الشبكات العصبية: طبقات المحولات، المعروفة من نماذج اللغة الكبيرة الأخرى، وطبقات Mamba، التي تم تصميمها لتكون أكثر كفاءة في استخدام الذاكرة. تمكن هذه التصميم الهجين النموذج من التعامل مع الوثائق الطويلة، وقواعد التعليمات البرمجية الكبيرة، ومدخلات أخرى شاملة مباشرة على جهاز الكمبيوتر المحمول أو الهاتف – باستخدام حوالي عشر حجم الذاكرة للنماذج التقليدية. يقول غوشن إن النموذج يعمل بشكل أسرع بكثير من المحولات التقليدية لأنه يعتمد أقل على مكون ذاكرة يُدعى KV cache، والذي يمكن أن يبطئ المعالجة مع زيادة طول المدخلات.
لماذا نحتاج إلى LLMs الصغيرة
تمنح بنية النموذج الهجينة ميزة في كل من السرعة وكفاءة الذاكرة، حتى مع المدخلات الطويلة جدًا، كما يؤكد مهندس برمجيات يعمل في صناعة LLM. طلب المهندس عدم الكشف عن هويته لأنه غير مخول بالتعليق على نماذج الشركات الأخرى. مع ازدياد عدد المستخدمين الذين يقومون بتشغيل الذكاء الاصطناعي التوليدي محليًا على أجهزة الكمبيوتر المحمولة، تحتاج النماذج إلى التعامل مع أطوال سياقية طويلة بسرعة دون استهلاك الكثير من الذاكرة. عند 3 مليارات معلمة، يلبي Jamba هذه المتطلبات، كما يقول المهندس، مما يجعله نموذجًا مُحسّنًا للاستخدام على الأجهزة.
Jamba Reasoning 3B مفتوح المصدر بموجب ترخيص Apache 2.0 المتساهل ومتاحة على منصات شائعة مثل Hugging Face وLM Studio. يأتي الإصدار أيضًا مع تعليمات لتخصيص النموذج من خلال منصة التعلم المعزز مفتوحة المصدر (المعروفة باسم VERL)، مما يجعل من الأسهل والأكثر تكلفة للمطورين تكييف النموذج لمهامهم الخاصة.
قال غوشن: “يمثل Jamba Reasoning 3B بداية لعائلة من نماذج التفكير الصغيرة والفعالة”. “يمكن أن يؤدي تقليل الحجم إلى تحقيق اللامركزية، والتخصيص، وكفاءة التكلفة. بدلاً من الاعتماد على وحدات معالجة الرسوم باهظة الثمن في مراكز البيانات، يمكن للأفراد والشركات تشغيل نماذجهم الخاصة على الأجهزة. وهذا يفتح اقتصاديات جديدة وإمكانية وصول أوسع.”




