تحليلات

مشروع قانون كاليفورنيا SB 53: إلزام شركات الذكاء الاصطناعي الكبرى بنشر تقارير السلامة والأمان

قدم السيناتور في كاليفورنيا، سكوت وينر، تعديلات جديدة على مشروع قانونه الأخير SB 53 الذي يُلزم أكبر شركات الذكاء الاصطناعي في العالم بنشر بروتوكولات السلامة والأمان، بالإضافة إلى إصدار تقارير عند حدوث حوادث تتعلق بالسلامة.

في حال إقرار هذا القانون، ستكون كاليفورنيا أول ولاية تفرض متطلبات شفافية فعلية على كبار مطوري الذكاء الاصطناعي، ومن المتوقع أن يشمل ذلك شركات مثل OpenAI، Google، Anthropic، وxAI.

كان مشروع القانون السابق لوينر، SB 1047، يحتوي على متطلبات مشابهة لنشر تقارير السلامة، لكن معارضة شديدة من وادي السيليكون أدت إلى رفض الحاكم غافين نيوسوم له. عقب ذلك، شكّل الحاكم لجنة من خبراء الذكاء الاصطناعي، بمن فيهم الباحثة في جامعة ستانفورد فاي-فاي لي، لوضع توصيات لسياسات سلامة الذكاء الاصطناعي في الولاية.

نشرت لجنة سياسة الذكاء الاصطناعي توصياتها مؤخرًا، مشددة على ضرورة “فرض متطلبات على الصناعة لنشر معلومات حول أنظمتها” بهدف إنشاء “بيئة أدلة شفافة وقوية”. وأشار مكتب السيناتور وينر إلى أن تعديلات مشروع القانون الجديد SB 53 تأثرت بشدة بهذه التوصيات.

قال السيناتور وينر في بيان:
“لا يزال المشروع قيد التطوير، وأتطلع للعمل مع جميع الأطراف المعنية خلال الأسابيع القادمة لصياغة قانون علمي وعادل.”

يهدف مشروع القانون إلى تحقيق توازن يراه الحاكم نيوسوم مفقودًا في القانون السابق، عبر فرض متطلبات شفافية ذات مغزى على أكبر مطوري الذكاء الاصطناعي دون إعاقة نمو الصناعة في كاليفورنيا.

قال ناثان كالفن، نائب رئيس الشؤون الحكومية في منظمة Encode المعنية بسلامة الذكاء الاصطناعي:
“طلب الشركات شرح ما تتخذه من إجراءات للتعامل مع المخاطر يعد خطوة معقولة وأساسية.”

حماية المبلغين وإنشاء بنية تحتية للذكاء الاصطناعي

يتضمن القانون أيضًا حماية المبلغين في مختبرات الذكاء الاصطناعي الذين يعتقدون أن التكنولوجيا تشكل “خطرًا حرجًا” على المجتمع، مثل التسبب في وفاة أو إصابة أكثر من 100 شخص أو أضرار تتجاوز مليار دولار.

إضافة إلى ذلك، يهدف القانون لإنشاء CalCompute، وهو عنقود حوسبة سحابية عام يدعم الشركات الناشئة والباحثين في تطوير الذكاء الاصطناعي واسع النطاق.

التغييرات الرئيسية في SB 53

على عكس SB 1047، لا يجعل مشروع القانون الجديد مطوري نماذج الذكاء الاصطناعي مسؤولين عن الأضرار التي تسببها نماذجهم، كما صمم ليخفف الأعباء عن الشركات الناشئة والباحثين الذين يستخدمون نماذج مفتوحة المصدر أو يقومون بضبط النماذج القائمة.

المرحلة القادمة

يتجه مشروع القانون الآن إلى لجنة الخصوصية وحماية المستهلك في مجلس ولاية كاليفورنيا، وبعدها يحتاج للمرور عبر هيئات تشريعية أخرى قبل توقيع الحاكم نيوسوم.

على الجانب الآخر من الولايات المتحدة، تفكر نيويورك في مشروع قانون مشابه يُعرف باسم RAISE Act، والذي يتطلب أيضًا من مطوري الذكاء الاصطناعي الكبار نشر تقارير سلامة وأمان.

سياق ورفض اقتراح الحظر الفيدرالي

تعرضت مشروعات قوانين كاليفورنيا ونيويورك للخطر مؤقتًا بسبب محاولة الكونغرس فرض حظر لمدة 10 سنوات على تنظيمات الذكاء الاصطناعي على مستوى الولايات، بهدف تجنب تشتت القوانين. لكن الاقتراح فشل في مجلس الشيوخ بنتيجة 99-1 في يوليو.

قال جيف رالستون، الرئيس السابق لشركة Y Combinator:
“تأمين تطوير الذكاء الاصطناعي بأمان يجب أن يكون أمرًا بديهيًا، وليس مثار جدل. مع غياب إجراءات فيدرالية جادة، يجب على الولايات أن تتولى المسؤولية. مشروع قانون SB 53 في كاليفورنيا مثال على القيادة الحكومية الرشيدة.”

ردود الفعل من شركات الذكاء الاصطناعي

رغم تأييد شركة Anthropic للشفافية، كانت شركات مثل OpenAI وGoogle وMeta أقل ترحيبًا بمتطلبات الشفافية الحكومية.

عادة ما تنشر الشركات تقارير سلامة لنماذجها، لكن هذا الالتزام تراجع مؤخرًا. على سبيل المثال، لم تنشر Google تقرير السلامة لنموذجها Gemini 2.5 Pro إلا بعد عدة أشهر من إتاحته، كما لم تصدر OpenAI تقريرًا لنموذج GPT-4.1، بينما أظهرت دراسات طرف ثالث احتمالات ضعف التوافق.

يمثل SB 53 نسخة معتدلة من القوانين السابقة، لكنه قد يجبر شركات الذكاء الاصطناعي على الإفصاح أكثر مما تفعل حاليًا، ويترقب الجميع بحذر تطوير هذه الحدود.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى