خمسة طرق يتعلم بها الذكاء الاصطناعي لتحسين نفسه

خمسة طرق يتعلم بها الذكاء الاصطناعي لتحسين نفسه
لذلك، كانت ميرهوسيني تستخدم الذكاء الاصطناعي لتحسين شرائح الذكاء الاصطناعي. في عام 2021، قامت هي وزملاؤها في جوجل ببناء نظام ذكاء اصطناعي غير قائم على نماذج اللغة الكبيرة (LLM) يمكنه تحديد مكان وضع مكونات مختلفة على شريحة الكمبيوتر لتحسين الكفاءة. على الرغم من أن بعض الباحثين الآخرين فشلوا في تكرار نتائج الدراسة، تقول ميرهوسيني إن Nature حققت في الورقة وأيدت صحة العمل، وتلاحظ أن جوجل استخدمت تصاميم النظام لعدة أجيال من شرائح الذكاء الاصطناعي المخصصة لها.
مؤخراً، طبقت ميرهوسيني نماذج اللغة الكبيرة على مشكلة كتابة النوى، وهي وظائف منخفضة المستوى تتحكم في كيفية تنفيذ عمليات مختلفة، مثل ضرب المصفوفات، في الشرائح. لقد وجدت أن نماذج اللغة العامة يمكنها، في بعض الحالات، كتابة نوى تعمل بشكل أسرع من النسخ التي صممها البشر.
في مكان آخر في جوجل، قام العلماء ببناء نظام استخدموه لتحسين أجزاء مختلفة من بنية نماذج اللغة الكبيرة في الشركة. النظام، المسمى AlphaEvolve، يحث نموذج جيميني للغة الكبيرة في جوجل على كتابة خوارزميات لحل مشكلة معينة، ويقيم تلك الخوارزميات، ويطلب من جيميني تحسين الأكثر نجاحًا – ويكرر تلك العملية عدة مرات. صمم AlphaEvolve نهجًا جديدًا لتشغيل مراكز البيانات التي وفرت 0.7% من موارد جوجل الحاسوبية، وأدخل تحسينات إضافية على تصميم الشريحة المخصصة لجوجل، وصمم نواة جديدة سرعت تدريب جيميني بنسبة 1%.
قد يبدو ذلك تحسنًا صغيرًا، لكن في شركة ضخمة مثل جوجل، يعادل ذلك وفورات ضخمة في الوقت والمال والطاقة. ويقول ماتي بالوغ، عالم أبحاث في جوجل ديب مايند الذي قاد مشروع AlphaEvolve، إنه هو وفريقه اختبروا النظام على مكون صغير فقط من خط أنابيب تدريب جيميني العام. تطبيقه بشكل أوسع، كما يقول، قد يؤدي إلى مزيد من التوفير.
3. أتمتة التدريب
تشتهر نماذج اللغة الكبيرة بأنها تتطلب كميات هائلة من البيانات، وتدريبها مكلف في كل مرحلة. في بعض المجالات المحددة – مثل لغات البرمجة غير المعتادة، على سبيل المثال – تكون البيانات الواقعية نادرة جدًا لتدريب نماذج اللغة الكبيرة بشكل فعال. كان التعلم المعزز مع تغذية راجعة من البشر، وهو تقنية يتم فيها تقييم ردود نماذج اللغة الكبيرة على المحفزات بواسطة البشر، ثم يتم تدريب نماذج اللغة الكبيرة باستخدام تلك التقييمات، هو المفتاح لإنشاء نماذج تتصرف وفقًا للمعايير والتفضيلات البشرية، لكن الحصول على تغذية راجعة من البشر بطيء ومكلف.
تستخدم نماذج اللغة الكبيرة بشكل متزايد لملء الفجوات. إذا تم تحفيزها بأمثلة كثيرة، يمكن لنماذج اللغة الكبيرة توليد بيانات اصطناعية معقولة في المجالات التي لم يتم تدريبها فيها، ويمكن استخدام تلك البيانات الاصطناعية للتدريب. يمكن أيضًا استخدام نماذج اللغة الكبيرة بشكل فعال للتعلم المعزز: في نهج يسمى “نموذج اللغة كقاضي”، تستخدم نماذج اللغة الكبيرة، بدلاً من البشر، لتقييم مخرجات النماذج التي يتم تدريبها. هذا النهج هو المفتاح لإطار “الذكاء الدستوري” المؤثر الذي اقترحه باحثو أنثروبك في عام 2022، حيث يتم تدريب نموذج لغة واحد ليكون أقل ضررًا بناءً على تغذية راجعة من نموذج لغة آخر.
تعد ندرة البيانات مشكلة حادة بشكل خاص لوكلاء الذكاء الاصطناعي. تحتاج الوكلاء الفعالة إلى القدرة على تنفيذ خطط متعددة الخطوات لتحقيق مهام معينة، لكن أمثلة إكمال المهام خطوة بخطوة الناجحة نادرة على الإنترنت، واستخدام البشر لتوليد أمثلة جديدة سيكون مكلفًا. للتغلب على هذه القيود، قامت ميرهوسيني وزملاؤها في جامعة ستانفورد مؤخرًا بتجربة تقنية حيث يقوم وكيل نموذج اللغة بتوليد نهج خطوة بخطوة محتمل لمشكلة معينة، ويقيم قاضي نموذج اللغة ما إذا كانت كل خطوة صحيحة، ثم يتم تدريب وكيل نموذج لغة جديد على تلك الخطوات. “لم تعد مقيدًا بالبيانات، لأن النموذج يمكنه ببساطة توليد المزيد والمزيد من التجارب”، تقول ميرهوسيني.
4. تحسين تصميم الوكلاء
أحد المجالات التي لم تحقق فيها نماذج اللغة الكبيرة بعد مساهمات كبيرة هو تصميم نماذج اللغة الكبيرة نفسها. تعتمد نماذج اللغة الكبيرة اليوم جميعها على هيكل شبكة عصبية يسمى المحول، الذي اقترحه الباحثون البشر في عام 2017، وكانت التحسينات الملحوظة التي تم إجراؤها منذ ذلك الحين على الهيكل أيضًا من تصميم البشر.