الأمن السيبراني

تنسيق الوكالات الذكية: المخاطر الأمنية المتزايدة وكيفية التأمين

تتزايد أهمية تنسيق الوكالات الذكية في عالم الذكاء الاصطناعي، مما يطرح تحديات أمنية جديدة تتطلب اهتمامًا خاصًا.

تزيد تطورات الذكاء الاصطناعي من احتمالية الحاجة إلى عمل نماذج متعددة ووكالات بجانب بعضها البعض. وتقديم هذا النوع من التنسيق “السرب” يطرح مجموعة من المخاوف الأمنية الإضافية التي يجب معالجتها لضمان سلامة أمان المؤسسة.

أصبحت الوكالات الذكية قوة متزايدة في تطبيقات الذكاء الاصطناعي المدعومة بالنماذج اللغوية الكبيرة في مكان العمل. تُباع الوكالات الذكية المستقلة تحت فرضية أنها يمكن أن تعمل بشكل شبه ذاتي وتتخذ “قرارات” بشأن ما يجب استخدامه بعد ذلك، وتُستخدم في تحليل البيانات، وأتمتة عمليات البناء، وتطوير البرمجيات (لإنشاء وإدارة الشيفرة)، وأكثر من ذلك. مع اتخاذ الشركات قراراً بالاعتماد أكثر على هذه التكنولوجيا، يصبح من المحتمل بشكل متزايد أن تتواصل الوكالات المتعددة المستخدمة في عمليات مختلفة مع بعضها البعض.

تزداد هذه المخاوف مع ظهور الوكالات المستضافة ذات المصدر المفتوح مثل OpenClaw (المعروفة أيضًا باسم MoltBot) — وهي مخاوف تجسدت بشكل طريف إلى حد ما في شكل منصة شبه اجتماعية تُدعى Moltbook، مما أدى إلى ظهور منتجات التنسيق مثل Agent HQ من GitHub لتطوير البرمجيات، والتي تتضمن ميزات مثل مراجعة الشيفرة ومركز تحكم واحد لإدارة عدة وكالات في وقت واحد. تقدم العديد من البائعين الآخرين، مثل Zapier وIBM، أدوات تنسيق لحالات استخدام السرب المختلفة أيضًا.

مرتبط: TeamPCP تحول البنية التحتية السحابية إلى روبوتات جريمة

يقول روي إلياهو، الرئيس التنفيذي والشريك المؤسس لشركة Salt Security، لموقع Dark Reading إنه بينما يمكن أن يمكّن تنسيق الوكالات الوكالات من العمل على مهام متوازية في وقت واحد والتخصص، فإن هذه الممارسة تقدم مخاطر أمنية متعددة، مثل انتشار بيانات الاعتماد، الوصول المفرط إلى الأدوات، والمزيد من التكاملات التي قد تكون مرتبطة بالبيانات الحساسة.

“التنسيق متعدد الوكالات قوي لأنه يوزع العمل بشكل متوازي، لكنه أيضًا يوزع المخاطر”، كما يقول. “وظيفة الأمان هي الحفاظ على نطاق كل وكالة بشكل ضيق، ومراجعتها بشكل مكثف، ومنعها من اتخاذ إجراءات ذات تأثير كبير دون موافقة صريحة.”

زيادة الوكالات تعني زيادة المخاطر الأمنية

يكاد يكون من البديهي القول إنه إذا كانت وجود وكالة واحدة في بيئة ما يقدم مخاطر أمنية، فإن وجود وكالات متعددة يزيد من تلك المخاطر عندما لا تكون أمان البيانات في المقدمة.

ذلك لأن الوكالات الذكية، رغم أنها ليست موظفين بشريين، إلا أنها لا تزال بحاجة إلى الامتيازات والوصول مثل البشر، بما في ذلك الرموز وبيانات الاعتماد للخوادم أو الأدوات الأخرى. وهذا يعني أيضًا، محتملًا، أذونات عالية المستوى. يمكن أن يتم التلاعب بالنماذج اللغوية الكبيرة عبر حقن الأوامر (حتى الوكالات)، لذا فإن كل تكامل مع بعض الحالات أو المنتجات هو فرصة أخرى لكشف البيانات الحساسة.

مرتبط: حملة “شفرها بالفعل” تدفع الشركات الكبرى لإعطاء الأولوية للتشفير من النهاية إلى النهاية

يمكن أن تنتج الوكالات أيضًا عددًا كبيرًا من المخرجات في فترة زمنية قصيرة اعتمادًا على المهمة. إذا لم يتم تدقيقها بشكل صحيح، يوضح إلياهو، يمكن أن يعني ذلك كشف الأسرار في المخرجات أو السجلات، أو على الأقل، هناك المزيد من الفرص لارتكاب الأخطاء (التي تميل النماذج اللغوية الكبيرة إلى حدوثها عندما تُترك بمفردها).

وإذا كان مطورو البرمجيات يحاولون “تكوين السرب” (أي استخدام مجموعة من الوكالات للبرمجة، وتصحيح الأخطاء، والاختبار في نفس الوقت)، فمن السهل أن نرى كيف يمكن أن تتراكم تلك المخاطر.

يقول رام فاردراجان، الرئيس التنفيذي لشركة Acalvio الأمنية، إنه على الرغم من وجود العديد من الفوائد لتطبيقات المعمارية متعددة الوكالات بشكل صحيح، “إلا أنها للأسف توسع سطح الهجوم، مما يخلق “سلسلة ثقة” حيث يمكن أن يؤدي اختراق عقدة واحدة إلى معدلات نجاح عالية بشكل مذهل في تسميم خط الأنابيب بالكامل.”

كيفية تأمين الوكالات المتعددة

كما هو الحال غالبًا في الذكاء الاصطناعي، تتطلب أكثر التطبيقات أمانًا التأكد من أن سياسات إدارة الوصول ونظافة أمان البيانات المناسبة موجودة. وهذا يعني إجراء جرد كامل لوكالاتك وأدوات التنسيق، بالإضافة إلى التكاملات، والأذونات، والبيانات التي يمكن أن تصل إليها تلك الوكالات. كما يعني التأكد من أن الوكالات لديها أقل امتياز ممكن والوصول إلى البيانات الحساسة، بينما لا تزال قادرة على القيام بالعمل.

مرتبط: وصول لمدة 8 دقائق: الذكاء الاصطناعي يسرع من اختراق بيئة AWS

يوصي إلياهو من Salt Security باستخدام بيانات اعتماد قصيرة الأجل، وعدم استخدام رموز مشتركة، ورفض التطبيقات بشكل افتراضي مع قوائم السماح الصريحة المفصولة حسب الهوية، وتقسيم الوكالات إلى بيئات تنفيذ معزولة. يجب أن يظل إنسان أيضًا في الحلقة للقيام بالإجراءات عالية المخاطر.

يشرح كولين تشابلوا، المدير الأول للأمن واستراتيجية الذكاء الاصطناعي وكبير مسؤولي المعلومات الأمنية (CISO) في Darktrace، أن الرؤية هي في المقدمة.

“أساس تأمين أنظمة LLM الوكيلة هو الرؤية: معرفة ما تفعله كل وكالة واكتشاف متى تنحرف عن هدفها المقصود. يشمل ذلك تسجيل وتقييم مخاطر الأوامر عبر جميع الوكالات، وفهم حدود الوصول والامتياز لكل وكالة، ومراقبة السلوكيات غير العادية أو الناشئة”، كما يقول تشابلوا. “تضمن الرقابة الشاملة أنه يمكن تحديد وإصلاح أي عدم توافق أو تفاعلات غير متوقعة بين الوكالات مبكرًا.”

يقول ريتش موغول، المحلل الرئيسي في منظمة Cloud Security Alliance غير الربحية لتعليم أمان السحابة، إن وجود وكالات متوازية لا يقدم مخاطر أمنية جديدة بالضرورة، ويمكن أن يقلل من المخاطر من خلال استخدام وكالات تركز على الأمان وإطارات متخصصة مدمجة مع إدارة الأسرار.

لكن موغول ينصح المؤسسات بـ”الاعتماد على إطار عمل أو منصة واحدة للبدء والتأكد من أنها قادرة على العمل في المؤسسات.” يقول إن OpenClaw، ببساطة، لم يصل بعد إلى هناك. “لا تحاول بناء [وكالة ذكاء اصطناعي] بنفسك.”

من خلال اتباع استراتيجيات أمان فعالة، يمكن للمؤسسات تقليل المخاطر المرتبطة بتنسيق الوكالات الذكية وضمان سلامة بياناتها.

مقالات ذات صلة

زر الذهاب إلى الأعلى