OpenAI تتوصل لاتفاق مع وزارة الدفاع الأمريكية لحماية الذكاء الاصطناعي

في خطوة مثيرة، أعلن سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عن اتفاقية جديدة مع وزارة الدفاع الأمريكية تتعلق باستخدام نماذج الذكاء الاصطناعي.
إعلان سام ألتمان عن اتفاقية مع وزارة الدفاع الأمريكية
أعلن سام ألتمان، الرئيس التنفيذي لشركة OpenAI، يوم الجمعة الماضي أن شركته توصلت إلى اتفاق يسمح لوزارة الدفاع الأمريكية باستخدام نماذج الذكاء الاصطناعي الخاصة بها في الشبكة السرية للوزارة.
خلفية الصراع بين OpenAI وAnthropic
يأتي هذا بعد مواجهة بارزة بين وزارة الدفاع، المعروفة أيضًا باسم وزارة الحرب في عهد إدارة ترامب، وشركة Anthropic المنافسة لـ OpenAI. حيث دفعت وزارة الدفاع شركات الذكاء الاصطناعي، بما في ذلك Anthropic، للسماح باستخدام نماذجها لأغراض “قانونية”، بينما سعت Anthropic إلى وضع حدود حول المراقبة المحلية الجماعية والأسلحة المستقلة بالكامل.
تصريحات Anthropic
في بيان مطول صدر يوم الخميس، قال داريوا أمودي، الرئيس التنفيذي لشركة Anthropic، إن الشركة “لم تعترض أبدًا على عمليات عسكرية معينة أو تحاول تقييد استخدام تقنيتنا بشكل عشوائي”، لكنه أضاف أن “في مجموعة ضيقة من الحالات، نعتقد أن الذكاء الاصطناعي يمكن أن يقوض، بدلاً من الدفاع، القيم الديمقراطية”.
ردود الفعل من موظفي OpenAI وGoogle
وقع أكثر من 60 موظفًا من OpenAI و300 موظف من Google على رسالة مفتوحة هذا الأسبوع تطالب أصحاب العمل بدعم موقف Anthropic.
انتقادات ترامب
بعد فشل Anthropic ووزارة الدفاع في التوصل إلى اتفاق، انتقد الرئيس دونالد ترامب “المجانين اليساريين في Anthropic” في منشور على وسائل التواصل الاجتماعي، والذي وجه أيضًا الوكالات الفيدرالية لوقف استخدام منتجات الشركة بعد فترة انتقالية مدتها ستة أشهر.
تصريحات وزير الدفاع
في منشور منفصل، زعم وزير الدفاع بيت هيغسث أن Anthropic تحاول “انتزاع حق النقض على القرارات التشغيلية للجيش الأمريكي”. كما قال إنه يضع Anthropic كخطر على سلسلة التوريد: “تسري اعتبارًا من الآن، لا يمكن لأي مقاول أو مورد أو شريك يتعامل مع الجيش الأمريكي القيام بأي نشاط تجاري مع Anthropic”.
موقف Anthropic
يوم الجمعة، قالت Anthropic إنها “لم تتلق بعد اتصالًا مباشرًا من وزارة الحرب أو البيت الأبيض بشأن حالة مفاوضاتنا”، لكنها أصرت على أنها ستتحدى أي تصنيف لخطر سلسلة التوريد في المحكمة.
التدابير الفنية من OpenAI
بشكل مفاجئ، ادعى ألتمان في منشور على X أن العقد الدفاعي الجديد لشركة OpenAI يتضمن حماية تعالج نفس القضايا التي أصبحت نقطة اشتعال لـ Anthropic.
قال ألتمان: “اثنان من أهم مبادئ السلامة لدينا هما حظر المراقبة الجماعية المحلية والمسؤولية البشرية عن استخدام القوة، بما في ذلك أنظمة الأسلحة المستقلة”. وأضاف: “تتفق وزارة الحرب مع هذه المبادئ، وتعكسها في القانون والسياسة، وقد وضعناها في اتفاقنا”.
التعاون مع وزارة الدفاع
قال ألتمان إن OpenAI “ستقوم ببناء تدابير فنية لضمان تصرف نماذجنا كما ينبغي، وهو ما أرادته وزارة الحرب أيضًا”، وأنها ستقوم بنشر مهندسين مع وزارة الدفاع “لمساعدتنا في نماذجنا ولضمان سلامتها”.
دعوة للاتفاقات المعقولة
أضاف ألتمان: “نطلب من وزارة الحرب تقديم نفس الشروط لجميع شركات الذكاء الاصطناعي، والتي نعتقد أنه ينبغي على الجميع قبولها”. وأعرب عن رغبتهم القوية في رؤية الأمور تتجه نحو تخفيف التوترات بعيدًا عن الإجراءات القانونية والحكومية نحو اتفاقات معقولة.
اجتماع مع موظفي OpenAI
أفادت شيرون غولدمان من Fortune أن ألتمان أخبر موظفي OpenAI في اجتماع شامل أن الحكومة ستسمح للشركة ببناء “مجموعة أمان” خاصة بها لمنع سوء الاستخدام، وأنه “إذا رفض النموذج القيام بمهمة، فلن تضطر الحكومة إلى إجبار OpenAI على القيام بتلك المهمة”.
الأحداث العالمية
جاء منشور ألتمان قبل أن تتصدر الأخبار أن الحكومتين الأمريكية والإسرائيلية بدأتا قصف إيران، حيث دعا ترامب إلى الإطاحة بالحكومة الإيرانية.
مع تصاعد الأحداث العالمية، تبقى الأنظار متجهة نحو كيفية تأثير هذه الاتفاقية على مستقبل الذكاء الاصطناعي والعلاقات بين الشركات والحكومة.




