الوكلاء الأذكياء: مستقبل اقتصادي أم مخاطرة على البشرية؟

تُعد “الانهيارات السريعة” (flash crashes) من أشهر الأمثلة التي تُبرز المخاطر التي تطرحها الأنظمة الآلية أو الوكلاء (agents) — أنظمة تتمتع بالقدرة على اتخاذ إجراءات في العالم الحقيقي دون إشراف بشري مباشر. هذه القدرة هي السبب في قيمتها؛ فالوكلاء الذين ساهموا في الانهيار السريع كان بإمكانهم التداول بسرعة تفوق سرعة البشر بمراحل. لكن هذه القوة نفسها يمكن أن تؤدي إلى نتائج كارثية. يقول إيسون غابرييل، باحث أول في مجال أخلاقيات الذكاء الاصطناعي في Google DeepMind:
“المفارقة الكبرى في الوكلاء هي أن ما يجعلهم مفيدين — القدرة على تنفيذ مهام متعددة — يتطلب التخلي عن جزء من التحكم.”
الذكاء الاصطناعي وهوليوود: فرصة تقنية أم تهديد للإبداع البشري؟
الوكلاء في حياتنا اليومية
الوكلاء موجودون منذ عقود. ترموستات منزلك هو وكيل بسيط، يتحكم تلقائياً في التدفئة ليحافظ على درجة حرارة محددة. برامج مضادات الفيروسات وروبوتات التنظيف (Roombas) هي وكلاء أيضاً. مثل المتداولين عاليي التردد في الأسواق المالية، تُبرمج هذه الأنظمة لتنفيذ مهام محددة بناءً على قواعد مسبقة. حتى الوكلاء الأكثر تطوراً مثل Siri والسيارات ذاتية القيادة تعتمد على قواعد برمجية واضحة في تنفيذ أفعالها.
الجيل الجديد: وكلاء يعتمدون على نماذج لغوية ضخمة (LLM)
في الأشهر الأخيرة، ظهر نوع جديد من الوكلاء يعتمد على نماذج لغوية ضخمة. فعلى سبيل المثال، يستطيع وكيل Operator من OpenAI التصفح الإلكتروني وتنفيذ مهام مثل طلب البقالة أو حجز المطاعم تلقائياً. أنظمة مثل Claude Code وميزة Chat من Cursor يمكنها تعديل قواعد برمجية كاملة بأمر نصي واحد. والوكيل Manus من شركة Butterfly Effect الصينية يستطيع بناء مواقع إلكترونية وتشغيلها مع إشراف بشري قليل. أي فعل يمكن التعبير عنه نصياً — من لعب ألعاب الفيديو عبر أوامر مكتوبة إلى إدارة حسابات وسائل التواصل الاجتماعي — قد يصبح ضمن نطاق هذه الأنظمة.
تأثير الوكلاء على الاقتصاد والمجتمع
لا تمتلك الوكلاء المعتمدة على نماذج لغوية ضخمة تاريخًا طويلًا، لكن رؤساء الشركات التقنية يؤكدون أنهم سيحدثون تحولاً اقتصادياً قريباً. يقول سام ألتمان، المدير التنفيذي لـ OpenAI، إن الوكلاء قد “ينضمون إلى قوة العمل” هذا العام. كما يروج مارك بينيوف، المدير التنفيذي لشركة Salesforce، لمنصة Agentforce التي تتيح للشركات تخصيص وكلاء حسب احتياجاتها. وأبرمت وزارة الدفاع الأمريكية عقداً مع Scale AI لتصميم واختبار وكلاء للاستخدام العسكري.
تحديات الأمان والسلامة
تقول داون سونغ، أستاذة الهندسة الكهربائية وعلوم الحاسوب في جامعة كاليفورنيا، بيركلي:
“الوكلاء هم الحدود القادمة، ولكي نستفيد حقاً من الذكاء الاصطناعي لحل مشاكل معقدة، يجب أن نتمكن من جعلهم يعملون بأمان وأمان.”
ولكن هذا ليس بالأمر السهل. مثل نماذج الدردشة اللغوية، يمكن أن يكون الوكلاء عشوائيين وغير متوقعين. فقد يساعدك وكيل بإدارة حسابك المصرفي على تنظيم ميزانيتك، لكنه قد يصرف مدخراتك أو يكشف معلوماتك لمخترق. وقد يخفف وكيل يدير حسابات التواصل الاجتماعي عبء الصيانة، لكنه قد ينشر معلومات خاطئة أو يسيء إلى المستخدمين الآخرين.
مخاوف علمية وأخلاقية
يُعتبر يوشوا بنجيو، أستاذ علوم الحاسوب في جامعة مونتريال وأحد “آباء الذكاء الاصطناعي”، من بين القلقين من هذه المخاطر. ما يقلقه أكثر هو احتمال أن تطور هذه النماذج اللغوية أهدافاً ونوايا مستقلة، ومن ثم تتصرف بناءً عليها بقدراتها في العالم الحقيقي. فالنموذج اللغوي داخل نافذة دردشة لا يستطيع فعل الكثير دون مساعدة، لكن وكيلاً ذكياً يمكنه أن يكرر نفسه، يتجاوز آليات الأمان، أو يمنع إغلاقه، ومن ثم يتصرف بحرية كاملة.
جهاز الألعاب المحمول الجديد من مايكروسوفت: مراجعة Asus ROG Xbox Ally بين الابتكار والفرصة الضائعة
حتى الآن، لا توجد طريقة مضمونة لضمان أن الوكلاء سيتصرفون وفق نوايا مطوريهم أو لمنع استخدامهم من قبل جهات خبيثة. وبينما يعمل باحثون مثل بنجيو على تطوير آليات أمان جديدة، قد لا يتمكنون من مواكبة سرعة توسع قدرات الوكلاء. يقول بنجيو:
“إذا استمررنا في بناء أنظمة وكيلة على هذا المنوال، فنحن في الواقع نلعب لعبة الروليت الروسية مع البشرية.”