OpenMind تطلق OM1 Beta نظام تشغيل مفتوح المصدر للروبوتات

تقول OpenMind إن نظام OM1 Beta يمكّن الروبوتات من الإدراك والتفكير والعمل دون قيود ملكية. المصدر: OpenMind
لطالما كانت الروبوتات مجزأة، حيث يُجبر المطورون على الاختيار بين الأنظمة البيئية المغلقة، والبرمجيات الخاصة بالأجهزة، أو منحنيات التعلم الحادة، وفقًا لـ OpenMind AGI. أعلنت الشركة اليوم عن إصدار النسخة التجريبية من OM1، التي تدعي أنها “أول نظام تشغيل مفتوح المصدر للروبوتات الذكية في العالم، وهو منصة عالمية تسمح لأي روبوت بالإدراك والتفكير والعمل في العالم الحقيقي.”
أكدت OpenMind أن منصتها OM1 تمكّن الروبوتات من جميع الأشكال من الإدراك والتكيف والعمل في البيئات البشرية. قالت الشركة التي تتخذ من سان فرانسيسكو مقرًا لها إن طبقة التنسيق اللامركزية FABRIC تخلق هوية آمنة للآلة وتدعم شبكة عالمية للتعاون بين الأنظمة الذكية.
معًا، يمكّن كل من OM1 و FABRIC الآلات من العمل عبر أي بيئة مع الحفاظ على الأمان والتنسيق على نطاق واسع، حسبما قالت OpenMind. وأضافت أن الإصدار يوفر “أساسًا مشتركًا يسرع من التطوير، ويعزز من التوافق، ويفتح عصرًا جديدًا من الذكاء الآلي.”
قال بويان تشين، المدير الفني لشركة OpenMind: “يوفر OM1 للمطورين اختصارًا نحو المستقبل. بدلاً من تجميع الأدوات والسائقين، يمكنك البدء فورًا في بناء سلوكيات ذكية وتطبيقات.”
تدعم OpenMind استقلالية الروبوتات
قامت OpenMind بإدراج الميزات التالية في إصدارها التجريبي:
- غير محدد بالعتاد: يعمل نظام التشغيل عبر الروبوتات الرباعية، والإنسانية، والروبوتات ذات العجلات، والطائرات بدون طيار.
- تكامل نماذج الذكاء الاصطناعي: يوفر OM1 Beta دعمًا للتوصيل والتشغيل لـ OpenAI وGemini وDeepSeek وxAI.
- الصوت + الرؤية: قالت OpenMind إن منصتها تمكّن من التواصل الطبيعي من خلال تحويل الكلام إلى نص (Google ASR)، وتحويل النص إلى كلام (Riva، ElevenLabs)، وتحليلات الرؤية/العواطف.
- وكلاء مُعدّون مسبقًا: هذه جاهزة للاستخدام على منصات شائعة مثل Unitree G1 humanoid وGo2 وTurtleBot وUbtech mini humanoid.
- التنقل المستقل: تتيح التكنولوجيا تحديد المواقع والملاحة في الوقت الحقيقي (SLAM)، ودعم الليدار، وNav2 لتخطيط المسارات.
- دعم المحاكاة: يتضمن ذلك تكامل Gazebo للاختبار قبل النشر على الأجهزة.
- عبر المنصات: تعمل برمجيات OpenMind على AMD64 وARM64، ويتم تسليمها عبر Docker لإعداد سريع.
- OM1 Avatar: هو تطبيق واجهة أمامية حديث مبني على React يوفر واجهة المستخدم ونظام عرض الصور الرمزية لبرمجيات الروبوتات OM1.
يتيح الإصدار التجريبي للمطورين تصميم روبوتات رباعية تعمل بالصوت في دقائق أو اختبار الملاحة التعاونية مع تحديد المواقع في الوقت الحقيقي وتجنب العقبات. يمكن للمطورين أيضًا استخدام OM1 Beta لنشر الروبوتات الإنسانية التي تدمج نماذج اللغة للتفاعل الطبيعي ومحاكاة السلوكيات في Gazebo قبل نشرها في العالم الحقيقي، حسبما قالت OpenMind.
إصدار OM1 Beta متاح الآن
قالت OpenMind: “لقد وصلت الروبوتات إلى نقطة تحول. تم استثمار مليارات الدولارات في الأجهزة، ولكن بدون طبقة ذكاء عالمية، تظل الروبوتات صعبة البرمجة، معزولة حسب الشركات المصنعة، وغير مستغلة بشكل كافٍ.”
OM1 Beta متاح الآن على GitHub، وتتوفر أدلة الإعداد والدعم المجتمعي في مركز الوثائق الخاص بها.
من خلال جعل إصدارها مفتوح المصدر، قالت OpenMind إنها يمكن أن تقلل من الحواجز أمام الدخول دون قفل ملكية، وتعزز من التعاون بين المطورين، وتمكّن من التوافق عبر أنواع الروبوتات والشركات المصنعة، وتجعل اعتماد الروبوتات سريعًا مثل تطوير البرمجيات.
قال يان ليب هاردت، الرئيس التنفيذي لشركة OpenMind: “لا ينبغي أن تتحرك الروبوتات فقط – بل يجب أن تتعلم، وتتكيف، وتتعاون.” مع هذا الإصدار، نقدم للمطورين الأساس لتحقيق ذلك. تمامًا كما حولت أندرويد الهواتف الذكية، نعتقد أن نظام التشغيل المفتوح سيحول الروبوتات.”
تعاونت OpenMind مع DIMO Ltd. لتمكين الآلات مثل المركبات المستقلة للتواصل كخطوة نحو المدن الذكية. في الشهر الماضي، جمعت الشركة 20 مليون دولار.
ملاحظة المحرر: سيعقد RoboBusiness 2025، في 15 و16 أكتوبر في سانتا كلارا، كاليفورنيا، وسيتميز بمسارات حول الذكاء الاصطناعي الفيزيائي، والتقنيات الممكنة، والروبوتات الإنسانية، والروبوتات الميدانية، والتصميم والتطوير، والأعمال. التسجيل مفتوح الآن.