خمس طرق يتعلم بها الذكاء الاصطناعي تحسين نفسه

في عالم التكنولوجيا المتطور، يتعلم الذكاء الاصطناعي تحسين ذاته بطرق مبتكرة. في هذا المقال، نستعرض خمس طرق رئيسية تسهم في هذا التطور.
خمس طرق تتعلم بها الذكاء الاصطناعي لتحسين نفسه
لذلك، كانت ميرهوسيني تستخدم الذكاء الاصطناعي لتحسين شرائح الذكاء الاصطناعي. في عام 2021، قامت هي وزملاؤها في جوجل ببناء نظام ذكاء اصطناعي غير قائم على نماذج اللغة الكبيرة (LLM) يمكنه تحديد مكان وضع مكونات مختلفة على شريحة الكمبيوتر لتحسين الكفاءة. على الرغم من أن بعض الباحثين الآخرين فشلوا في تكرار نتائج الدراسة، تقول ميرهوسيني إن Nature حققت في الورقة وأيدت صلاحية العمل، وتلاحظ أن جوجل استخدمت تصاميم النظام لعدة أجيال من شرائح الذكاء الاصطناعي المخصصة لها.
مؤخراً، استخدمت ميرهوسيني نماذج اللغة الكبيرة لحل مشكلة كتابة النوى، وهي وظائف منخفضة المستوى تتحكم في كيفية تنفيذ عمليات مختلفة، مثل ضرب المصفوفات، على الشرائح. لقد وجدت أن النماذج العامة يمكنها، في بعض الحالات، كتابة نوى تعمل بشكل أسرع من النسخ المصممة بواسطة البشر.
في مكان آخر في جوجل، قام العلماء ببناء نظام استخدموه لتحسين أجزاء مختلفة من بنية نماذج اللغة الكبيرة الخاصة بالشركة. النظام، المسمى AlphaEvolve، يحث نموذج جيميني للغة الكبيرة في جوجل على كتابة خوارزميات لحل بعض المشكلات، ويقيم تلك الخوارزميات، ويطلب من جيميني تحسين الأكثر نجاحاً – ويكرر هذه العملية عدة مرات. صمم AlphaEvolve نهجاً جديداً لتشغيل مراكز البيانات التي وفرت 0.7% من موارد جوجل الحاسوبية، وأدخل تحسينات إضافية على تصميم الشريحة المخصصة لجوجل، وصمم نواة جديدة سرعت تدريب جيميني بنسبة 1%.
قد يبدو ذلك تحسناً صغيراً، لكن في شركة كبيرة مثل جوجل، يعادل ذلك وفورات هائلة من الوقت والمال والطاقة. ويقول ماتيج بالوج، عالم أبحاث في جوجل ديب مايند الذي قاد مشروع AlphaEvolve، إنه وفريقه اختبروا النظام فقط على مكون صغير من خط أنابيب تدريب جيميني العام. تطبيقه بشكل أوسع، كما يقول، قد يؤدي إلى المزيد من التوفير.
3. أتمتة التدريب
تشتهر نماذج اللغة الكبيرة بأنها تتطلب كميات كبيرة من البيانات، وتدريبها مكلف في كل مرحلة. في بعض المجالات المحددة – مثل لغات البرمجة غير الشائعة – تكون البيانات الواقعية نادرة جداً لتدريب نماذج اللغة الكبيرة بشكل فعال. لقد كانت التعلم المعزز مع التغذية الراجعة البشرية، وهي تقنية يتم فيها تقييم استجابات نماذج اللغة الكبيرة من قبل البشر ثم يتم تدريب النماذج باستخدام تلك التقييمات، مفتاحاً لإنشاء نماذج تتوافق مع المعايير والتفضيلات البشرية، لكن الحصول على التغذية الراجعة البشرية بطيء ومكلف.
تُستخدم نماذج اللغة الكبيرة بشكل متزايد لسد الفجوات. إذا تم تحفيزها بأمثلة كثيرة، يمكن لنماذج اللغة الكبيرة توليد بيانات اصطناعية مقبولة في المجالات التي لم يتم تدريبها فيها، ويمكن استخدام تلك البيانات الاصطناعية للتدريب. يمكن أيضاً استخدام نماذج اللغة الكبيرة بشكل فعال في التعلم المعزز: في نهج يسمى “نماذج اللغة الكبيرة كقاضي”، تُستخدم نماذج اللغة الكبيرة، بدلاً من البشر، لتقييم مخرجات النماذج التي يتم تدريبها. هذا النهج هو مفتاح إطار العمل المؤثر “الذكاء الدستوري” الذي اقترحه باحثو أنثروبيك في عام 2022، حيث يتم تدريب نموذج لغة كبير ليكون أقل ضرراً بناءً على التغذية الراجعة من نموذج لغة كبير آخر.
تعد ندرة البيانات مشكلة حادة بشكل خاص لوكلاء الذكاء الاصطناعي. تحتاج الوكلاء الفعّالة إلى القدرة على تنفيذ خطط متعددة الخطوات لإنجاز مهام معينة، لكن الأمثلة على إكمال المهام خطوة بخطوة نادرة على الإنترنت، واستخدام البشر لتوليد أمثلة جديدة سيكون مكلفاً. للتغلب على هذه القيود، قامت ميرهوسيني وزملاؤها في ستانفورد مؤخراً بتجربة تقنية حيث يقوم وكيل نموذج اللغة الكبير بتوليد نهج خطوة بخطوة ممكن لمشكلة معينة، ويقيم قاضي نموذج اللغة الكبير ما إذا كانت كل خطوة صحيحة، ثم يتم تدريب وكيل نموذج لغة كبير جديد على تلك الخطوات. “لم تعد مقيداً بالبيانات، لأن النموذج يمكنه ببساطة توليد المزيد والمزيد من التجارب”، تقول ميرهوسيني.
4. تحسين تصميم الوكلاء
لم تحقق نماذج اللغة الكبيرة حتى الآن مساهمات كبيرة في تصميم نماذج اللغة الكبيرة نفسها. تعتمد نماذج اللغة الكبيرة اليوم جميعها على هيكل شبكة عصبية يسمى المحول، الذي اقترحه الباحثون البشر في عام 2017، وكانت التحسينات الملحوظة التي تم إجراؤها منذ ذلك الحين على الهيكل أيضاً من تصميم البشر.
تستمر الأبحاث في هذا المجال، مما يعد بمزيد من التحسينات في أداء الذكاء الاصطناعي. تابعونا لمزيد من التحديثات حول هذا الموضوع المثير.




