الذكاء الاصطناعي

عائلة أولمو 3 من Ai2: تحدي Qwen و Llama مع تخصيص فعال

تسعى Ai2 إلى تلبية الطلب المتزايد على نماذج الذكاء الاصطناعي المخصصة من خلال إطلاق عائلة أولمو 3، التي تتميز بتفكير مفتوح وشفافية عالية.

عائلة أولمو 3 من Ai2 تتحدى Qwen و Llama من خلال التفكير المفتوح والتخصيص الفعال

يأمل معهد ألين للذكاء الاصطناعي (Ai2) في استغلال الطلب المتزايد على النماذج المخصصة ورغبة المؤسسات في الحصول على مزيد من الشفافية من نماذج الذكاء الاصطناعي من خلال إصداره الأخير.

أطلق Ai2 أحدث إضافة إلى عائلة أولمو من نماذج اللغة الكبيرة، مستمراً في التركيز على الانفتاح والتخصيص.

يتميز أولمو 3 بوجود نافذة سياق أطول، ومزيد من آثار التفكير، وقدرته المحسنة على البرمجة مقارنةً بالإصدار السابق. هذا الإصدار الأخير، مثل الإصدارات الأخرى من أولمو، مفتوح المصدر بموجب رخصة Apache 2.0. ستحظى المؤسسات بشفافية كاملة وسيطرة على بيانات التدريب ونقاط التحقق.

سيقوم Ai2 بإصدار ثلاثة إصدارات من أولمو 3:

  • أولمو 3- التفكير في كل من 7B و 32B، والتي تعتبر النماذج الرائدة في التفكير للبحث المتقدم

  • أولمو 3- الأساسي أيضاً في كلا المعامل، وهو مثالي للبرمجة والفهم والرياضيات والتفكير طويل السياق. قال Ai2 إن هذا الإصدار “مثالي للتدريب المستمر أو التخصيص”

  • أولمو 3- التعليمات في 7B، وهو مُحسّن لاتباع التعليمات، والحوار متعدد الأدوار، واستخدام الأدوات

قالت الشركة إن أولمو 3- التفكير هو “أول نموذج تفكير مفتوح بالكامل بحجم 32B يولد محتوى بأسلوب سلسلة التفكير الصريح.” كما أن أولمو 3- التفكير يمتلك نافذة سياق طويلة تصل إلى 65,000 رمز، مما يجعله مثالياً للمشاريع الطويلة أو التفكير في مستندات طويلة.

قال نوح سميث، المدير الأول لأبحاث معالجة اللغة الطبيعية في Ai2، في مقابلة مع VentureBeat إن العديد من عملائنا، من المؤسسات المنظمة إلى المؤسسات البحثية، يريدون استخدام نماذج تمنحهم ضمانات حول ما تم تضمينه في التدريب.

“الإصدارات من أصدقائنا في عالم التكنولوجيا مثيرة للغاية، ولكن هناك الكثير من الناس الذين يهتمون بالتحكم في خصوصية البيانات حول ما يدخل في النموذج، وكيف يتم تدريب النماذج، وغيرها من القيود على كيفية استخدام النموذج”، قال سميث.

يمكن للمطورين الوصول إلى النماذج على Hugging Face و Ai2 Playground.

الشفافية والتخصيص

قال سميث إن النماذج مثل أولمو 3، التي تعتقد الشركة أنه يجب على أي منظمة تستخدم نماذجها أن تتحكم فيها وتشكّلها بالطريقة التي تناسبها.

“لا نؤمن بحلول تناسب الجميع”، قال سميث. من المعروف في عالم التعلم الآلي أنه إذا حاولت بناء نموذج يحل جميع المشاكل، فإنه ينتهي به الأمر إلى عدم كونه أفضل نموذج لأي مشكلة واحدة. لا توجد أدلة رسمية على ذلك، ولكنها ملاحظة قديمة.

وأضاف أن النماذج القادرة على التخصص “قد لا تكون مثيرة مثل الحصول على درجات عالية في امتحانات الرياضيات” ولكنها تقدم مزيدًا من المرونة للمؤسسات.

يسمح أولمو 3 للمؤسسات بإعادة تدريب النموذج عن طريق إضافة مصادر بيانات خاصة بها لتوجيه النموذج في الإجابة على استفسارات محددة للشركة. لمساعدة المؤسسات خلال هذه العملية، أضاف Ai2 نقاط تحقق من كل مرحلة تدريب رئيسية.

ازداد الطلب على تخصيص النماذج حيث تسعى المؤسسات التي لا تستطيع بناء نماذجها الخاصة إلى إنشاء نماذج محددة للشركة أو تركز على الصناعة. بدأت شركات ناشئة مثل Arcee في تقديم نماذج صغيرة قابلة للتخصيص تركز على المؤسسات.

تمنح نماذج مثل أولمو 3، كما قال سميث، المؤسسات مزيدًا من الثقة في التكنولوجيا. نظرًا لأن أولمو 3 يوفر بيانات التدريب، يمكن للمؤسسات أن تثق بأن النموذج لم يستوعب أي شيء لا ينبغي أن يكون قد استوعبه.

لطالما ادعى Ai2 التزامه بالشفافية، حتى أنه أطلق أداة تسمى OlmoTrace في أبريل يمكنها تتبع مخرجات النموذج مباشرة إلى بيانات التدريب الأصلية. تطلق الشركة نماذج مفتوحة المصدر وتنشر شيفرتها في مستودعات مثل GitHub ليستخدمها الجميع.

واجهت شركات منافسة مثل Google و OpenAI انتقادات من المطورين بسبب تحركاتها التي أخفت رموز التفكير الخام واختارت تلخيص التفكير، مدعيةً أنها الآن تلجأ إلى “تصحيح الأخطاء بشكل أعمى” دون شفافية.

قام Ai2 بتدريب أولمو 3 على مجموعة بيانات مفتوحة المصدر تحتوي على ستة تريليونات رمز، Dolma 3. تشمل مجموعة البيانات بيانات الويب والأدبيات العلمية والشيفرة. قال سميث إنهم قاموا بتحسين أولمو 3 للبرمجة، مقارنةً بالتركيز على الرياضيات في أولمو 2.

كيف يتفوق

يدعي Ai2 أن عائلة نماذج أولمو 3 تمثل قفزة كبيرة حقًا للنماذج مفتوحة المصدر، على الأقل بالنسبة للنماذج مفتوحة المصدر التي تم تطويرها خارج الصين. تم تدريب نموذج أولمو 3 الأساسي “بكفاءة حسابية أكبر بحوالي 2.5 مرة كما هو مقاس بساعات GPU لكل رمز”، مما يعني أنه استهلك طاقة أقل خلال التدريب المسبق وتكاليف أقل.

قالت الشركة إن نماذج أولمو 3 تفوقت على نماذج مفتوحة أخرى، مثل Marin من جامعة ستانفورد، و K2 من LLM360، و Apertus، على الرغم من أن Ai2 لم يقدم أرقامًا لاختبار المعايير.

“من الجدير بالذكر أن أولمو 3- التفكير (32B) هو أقوى نموذج تفكير مفتوح بالكامل، مما يقلل الفجوة بين أفضل النماذج ذات الوزن المفتوح من نفس الحجم، مثل سلسلة نماذج Qwen 3-32B- Thinking عبر مجموعة معايير التفكير الخاصة بنا، كل ذلك بينما تم تدريبه على 6 مرات أقل من الرموز”، قالت Ai2 في بيان صحفي.

أضافت الشركة أن أولمو 3- التعليمات أدت أداءً أفضل من Qwen 2.5 و Gemma 3 و Llama 3.1.

مع استمرار تطور الذكاء الاصطناعي، تمثل عائلة أولمو 3 خطوة مهمة نحو تحقيق نماذج أكثر تخصيصًا وشفافية، مما يعزز ثقة المؤسسات في هذه التكنولوجيا.

مقالات ذات صلة

زر الذهاب إلى الأعلى