حالة وكلاء الذكاء الاصطناعي: الواقع والتحديات

أهمية الموضوع
موضوع ساخن: وسط الضجة المتزايدة حول وكلاء الذكاء الاصطناعي، قدم مهندس ذو خبرة منظورًا واقعيًا مستندًا إلى عمله على أكثر من عشرة أنظمة إنتاجية تغطي التطوير وعمليات DevOps وعمليات البيانات. من وجهة نظره، يبدو أن الفكرة القائلة بأن عام 2025 سيشهد ظهور وكلاء مستقلين تمامًا قادرين على تحويل القوى العاملة أصبحت غير واقعية بشكل متزايد.
قيود رياضية أساسية
في منشور مدونة حديث، أشار مهندس الأنظمة أتكارشان كانوات إلى القيود الرياضية الأساسية التي تتحدى فكرة سير العمل المستقل بالكامل لوكلاء متعددين الخطوات. نظرًا لأن الأنظمة ذات المستوى الإنتاجي تتطلب موثوقية تصل إلى 99.9 في المئة، فإن الرياضيات تجعل سير العمل المستقل الممتد غير قابل للتطبيق بسرعة.
“إذا كانت كل خطوة في سير عمل الوكيل لديها موثوقية بنسبة 95 في المئة، وهو ما يعتبر تفاؤلاً بالنسبة لنماذج اللغة الحالية، فإن خمس خطوات تحقق نجاحًا بنسبة 77 في المئة، وعشر خطوات 59 في المئة، وعشرون خطوة تحقق 36 في المئة فقط،” أوضح كانوات.
حتى في حالة تحسين موثوقية الخطوة الواحدة إلى 99 في المئة، فإن النجاح يتراجع إلى حوالي 82 في المئة بالنسبة لعشرين خطوة.
“هذه ليست مشكلة هندسة الموجهات. هذه ليست مشكلة قدرة النموذج. هذه هي الحقيقة الرياضية،” يقول كانوات.
تجنب مشكلة الخطأ المتراكم
يتجنب وكيل DevOps الخاص بكانوات مشكلة الخطأ المتراكم عن طريق تقسيم سير العمل إلى 3 إلى 5 خطوات مستقلة يمكن التحقق منها، مع نقاط استرجاع واضحة وبوابات تأكيد بشرية. يشكل هذا النهج التصميمي – الذي يركز على السياقات المحدودة والعمليات الذرية والتدخل البشري الاختياري في النقاط الحرجة – أساس كل نظام وكيل موثوق قام ببنائه. يحذر من أن محاولة ربط العديد من الخطوات المستقلة تؤدي حتمًا إلى الفشل بسبب معدلات الخطأ المتراكمة.
تكلفة الرموز في الوكلاء المحادثة
تقدم تكلفة الرموز المتزايدة في الوكلاء المحادثة حاجزًا ثانيًا غالبًا ما يتم تجاهله. يوضح كانوات ذلك من خلال تجربته في تصميم وكيل قاعدة بيانات محادثة، حيث كان يتعين على كل تفاعل جديد معالجة السياق الكامل السابق – مما تسبب في زيادة تكاليف الرموز بشكل تربيعي مع طول المحادثة.
في حالة واحدة، كلف تبادل مكون من 100 دورة ما بين 50 و100 دولار في الرموز فقط، مما جعل الاستخدام الواسع غير مستدام اقتصاديًا. تجنب وكيل توليد الوظائف هذه المشكلة من خلال البقاء بلا حالة: وصف في الداخل، وظيفة في الخارج – لا سياق للحفاظ عليه، ولا محادثة لتتبعها، ولا تكاليف متزايدة.
“أكثر الوكلاء نجاحًا في الإنتاج ليسوا محادثين على الإطلاق،” يقول كانوات. “إنهم أدوات ذكية ومحدودة تقوم بشيء واحد بشكل جيد وتبتعد عن الطريق.”
تحديات تصميم الأدوات
بعيدًا عن القيود الرياضية، يكمن تحدٍ أعمق في الهندسة: تصميم الأدوات. يجادل كانوات بأن هذا الجانب غالبًا ما يتم التقليل من قيمته وسط الضجيج الأوسع حول الوكلاء. بينما أصبحت استدعاءات الأدوات دقيقة نسبيًا، يقول إن الصعوبة الحقيقية تكمن في تصميم أدوات تقدم ملاحظات منظمة وقابلة للتنفيذ دون إغراق نافذة السياق المحدودة للوكيل.
على سبيل المثال، يجب أن تلخص أداة قاعدة البيانات المصممة بشكل جيد النتائج في تنسيق مضغوط وسهل الهضم – تشير إلى أن الاستعلام قد نجح، وعاد بـ 10 آلاف نتيجة، وعرض فقط عددًا قليلاً – بدلاً من إغراق الوكيل بالناتج الخام. تزيد معالجة النجاح الجزئي، والتعافي من الفشل، وإدارة العمليات المعتمدة على بعضها البعض من تعقيد الهندسة.
“يعمل وكيل قاعدة البيانات الخاص بي ليس لأن استدعاءات الأدوات غير موثوقة،” يقول كانوات، “ولكن لأنني قضيت أسابيع في تصميم أدوات تتواصل بشكل فعال مع الذكاء الاصطناعي.”
التحديات في بيئات المؤسسات
يلاحظ كانوات أن بيئات المؤسسات نادرًا ما توفر واجهات برمجة تطبيقات نظيفة لوكلاء الذكاء الاصطناعي. تطرح القيود القديمة، وحدود المعدلات المتقلبة، ومتطلبات الامتثال الصارمة جميعها عقبات كبيرة. على سبيل المثال، يتضمن وكيل قاعدة البيانات الخاص به ميزات هندسية تقليدية مثل تجميع الاتصالات، واسترجاع المعاملات، ووقت انتهاء الاستعلام، وتسجيل تدقيق مفصل – عناصر تقع بعيدًا عن نطاق الذكاء الاصطناعي.
يؤكد أنه يتم توليد الاستعلامات بواسطة الوكيل بينما تدير برمجة الأنظمة التقليدية كل شيء آخر. في رأيه، تفشل العديد من الشركات التي تدفع بوعد الوكلاء المستقلين بالكامل في التعامل مع هذه الحقائق القاسية. التحدي الحقيقي، كما يجادل، ليس قدرة الذكاء الاصطناعي بل التكامل – وهذا هو المكان الذي تنهار فيه معظم الوكلاء.
نظرة إلى المستقبل
تشارك وكلاء كانوات الناجحون نهجًا مشتركًا: يدير الذكاء الاصطناعي التعقيد ضمن حدود واضحة، بينما تضمن الأنظمة البشرية أو الحتمية التحكم والموثوقية. يقوم وكيل توليد واجهة المستخدم بإنشاء مكونات React ولكنه يتطلب مراجعة بشرية قبل النشر. تنتج أتمتة DevOps رمز Terraform الذي يخضع للمراجعة، والتحكم في الإصدارات، والاسترجاع. يتضمن وكيل CI/CD معايير نجاح محددة وإجراءات استرجاع، ويؤكد وكيل قاعدة البيانات الأوامر المدمرة قبل التنفيذ. يسمح هذا التصميم للذكاء الاصطناعي بالتعامل مع “الأجزاء الصعبة” مع الحفاظ على إشراف بشري والهندسة التقليدية للحفاظ على السلامة والدقة.
ينبئ كانوات بأنه من المتوقع أن تواجه الشركات الناشئة المدعومة برؤوس الأموال صعوبة في تحقيق وكلاء مستقلين بالكامل بسبب القيود الاقتصادية والأخطاء المتراكمة. في الوقت نفسه، ستواجه المؤسسات التي تحاول دمج الذكاء الاصطناعي مع البرمجيات القديمة عقبات في التبني بسبب مشاكل التكامل المعقدة. يعتقد أن أكثر الفرق نجاحًا ستتركز على إنشاء أدوات متخصصة تركز على المجالات التي تطبق الذكاء الاصطناعي على المهام المعقدة ولكن تحتفظ بالإشراف البشري أو الحدود التشغيلية الصارمة. يحذر كانوات أيضًا من أن العديد من الشركات ستواجه منحنى تعلم حاد في الانتقال من العروض المثيرة للإعجاب إلى المنتجات الجاهزة للسوق.