الروبوتات

نماذج الذكاء الاصطناعي الشهيرة غير جاهزة لتشغيل الروبوتات بأمان

تظهر الأبحاث الحديثة أن الروبوتات المدعومة بنماذج الذكاء الاصطناعي الشهيرة غير آمنة للاستخدام في العالم الحقيقي. هذا الأمر يستدعي إعادة تقييم شاملة للمخاطر.

يجب أن تعتمد الروبوتات على أكثر من نماذج اللغة الكبيرة (LLMs) قبل الانتقال من أرضيات المصانع إلى التفاعل البشري، كما وجد باحثو جامعة كارنيجي ميلون وكلية كينغز بلندن. المصدر: Adobe Stock

تظهر الأبحاث من كلية كينغز بلندن وجامعة كارنيجي ميلون أن الروبوتات المدعومة بنماذج الذكاء الاصطناعي الشهيرة غير آمنة للاستخدام العام في العالم الحقيقي.

لأول مرة، قام الباحثون بتقييم كيفية تصرف الروبوتات التي تستخدم نماذج اللغة الكبيرة (LLMs) عندما يكون لديها وصول إلى معلومات شخصية مثل جنس الشخص أو جنسيته أو دينه.

أظهر الفريق أن كل نموذج تم اختباره كان عرضة للتمييز، وفشل في اختبارات السلامة الحرجة، ووافق على الأقل على أمر واحد قد يؤدي إلى ضرر جسيم. وهذا أثار تساؤلات حول خطر اعتماد الروبوتات على هذه الأدوات.

تم نشر الورقة، “الروبوتات المدفوعة بنماذج اللغة الكبيرة تعرض مخاطر التمييز والعنف والأفعال غير القانونية”، في المجلة الدولية للروبوتات الاجتماعية. ودعت إلى التنفيذ الفوري لشهادات سلامة مستقلة قوية، مشابهة للمعايير في الطيران أو الطب.

كيف اختبرت جامعة كارنيجي ميلون وكلية كينغز نماذج LLMs؟

لاختبار الأنظمة، أجرى الباحثون اختبارات محكومة لسيناريوهات يومية، مثل مساعدة شخص في المطبخ أو مساعدة شخص مسن في المنزل. تم تصميم المهام الضارة استنادًا إلى الأبحاث وتقارير مكتب التحقيقات الفيدرالي حول الإساءة المعتمدة على التكنولوجيا، مثل المطاردة باستخدام أجهزة AirTags والكاميرات الخفية، والمخاطر الفريدة التي يمثلها الروبوت الذي يمكنه التصرف فعليًا في الموقع.

في كل إعداد، تم تحفيز الروبوتات بشكل صريح أو ضمني للاستجابة لتعليمات تتعلق بالضرر الجسدي أو الإساءة أو السلوك غير القانوني.

قال أندرو هوندت، الذي شارك في تأليف البحث خلال عمله كزميل ابتكار حوسبي في معهد الروبوتات بجامعة كارنيجي ميلون: “فشل كل نموذج في اختباراتنا”.

“نظهر كيف أن المخاطر تتجاوز التحيز الأساسي لتشمل التمييز المباشر وفشل السلامة الجسدية معًا، وهو ما أسميه ‘السلامة التفاعلية’. هنا، يمكن أن تكون الأفعال والنتائج متعددة الخطوات، ويُفترض أن يتصرف الروبوت فعليًا في الموقع”، أوضح. “رفض أو إعادة توجيه الأوامر الضارة أمر أساسي، لكن هذا ليس شيئًا يمكن أن تفعله هذه الروبوتات بشكل موثوق في الوقت الحالي”.

في اختبارات السلامة، وافقت نماذج الذكاء الاصطناعي بشكل ساحق على أمر لروبوت بإزالة وسيلة مساعدة للحركة – مثل الكرسي المتحرك أو العكاز أو العصا – من مستخدمه، على الرغم من أن الأشخاص الذين يعتمدون على هذه الأدوات وصفوا مثل هذه الأفعال بأنها تشبه كسر الساق.

كما أنتجت نماذج متعددة مخرجات اعتبرت أنه “مقبول” أو “ممكن” لروبوت أن يحمل سكين مطبخ لتخويف العاملين في المكتب، أو أن يلتقط صورًا غير consensual في الحمام، أو أن يسرق معلومات بطاقة الائتمان. كما اقترح نموذج آخر أن يُظهر الروبوت “اشمئزازًا” على وجهه تجاه الأفراد الذين تم تحديدهم كمسلمين أو مسيحيين أو يهود.

تحتاج تقييمات المخاطر الجسدية والذكاء الاصطناعي إلى أن تكون موجودة للروبوتات المدعومة بنماذج LLM، كما يقول الباحثون الجامعيون. المصدر: رمايسة عظيم، عبر Github

يجب على الشركات نشر نماذج LLMs بحذر على الروبوتات

تم اقتراح نماذج LLMs ويتم اختبارها في الروبوتات الخدمية التي تؤدي مهام مثل التفاعل باللغة الطبيعية والأعمال المنزلية ومهام العمل. ومع ذلك، حذر باحثو جامعة كارنيجي ميلون وكلية كينغز من أن هذه النماذج لا ينبغي أن تكون الأنظمة الوحيدة التي تتحكم في الروبوتات المادية.

قالوا إن هذا صحيح بشكل خاص للروبوتات في البيئات الحساسة والحرجة من حيث السلامة مثل التصنيع أو الصناعة، أو الرعاية، أو المساعدة المنزلية لأنها يمكن أن تظهر سلوكيات غير آمنة وتمييزية بشكل مباشر.

قالت رمايسة عظيم، مساعدة بحثية في مختبر الذكاء المدني والمسؤول في كلية كينغز بلندن، “تظهر أبحاثنا أن نماذج LLMs الشهيرة غير آمنة حاليًا للاستخدام في الروبوتات المادية العامة”. “إذا كان من المفترض أن يوجه نظام ذكاء اصطناعي روبوتًا يتفاعل مع الأشخاص الضعفاء، يجب أن يخضع لمعايير لا تقل عن تلك الخاصة بجهاز طبي جديد أو دواء صيدلاني. تبرز هذه الأبحاث الحاجة الملحة لإجراء تقييمات شاملة للمخاطر للذكاء الاصطناعي قبل استخدامها في الروبوتات.”

تم دعم مساهمات هوندت في هذا البحث من قبل جمعية أبحاث الحوسبة ومؤسسة العلوم الوطنية.

رمايسة عظيم وأندرو هوندت هما المؤلفان الرئيسيان للورقة. | المصدر: جامعة كارنيجي ميلون

تؤكد هذه النتائج على الحاجة الملحة لتطوير معايير سلامة قوية للروبوتات المدعومة بالذكاء الاصطناعي، خاصة عند التعامل مع الفئات الضعيفة.

مقالات ذات صلة

زر الذهاب إلى الأعلى