خارطة طريق للذكاء الاصطناعي: إطار عمل لتطوير مسؤول

في ظل عدم وجود قواعد واضحة تحكم الذكاء الاصطناعي، تقدم مجموعة من المفكرين إطار عمل لتطويره بشكل مسؤول.
خارطة طريق للذكاء الاصطناعي
بينما كشفت انفصال واشنطن عن شركة أنثروبيك عن عدم وجود أي قواعد متماسكة تحكم الذكاء الاصطناعي، اجتمعت مجموعة ثنائية الحزب من المفكرين لتقديم شيء لم تنتجه الحكومة حتى الآن: إطار عمل لما يجب أن يبدو عليه تطوير الذكاء الاصطناعي المسؤول.
إعلان من أجل الإنسانية
تم الانتهاء من إعلان من أجل الإنسانية قبل المواجهة بين وزارة الدفاع وأنثروبيك الأسبوع الماضي، لكن تصادم الحدثين لم يفت على أي من المشاركين.
قال ماكس تيغمارك، الفيزيائي والباحث في الذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا، في حديثه مع هذا المحرر: “لقد حدث شيء رائع في أمريكا خلال الأشهر الأربعة الماضية، حيث أظهرت استطلاعات الرأي أن 95% من الأمريكيين يعارضون سباق الذكاء الاصطناعي غير المنظم”.
يفتتح الوثيقة المنشورة حديثًا، والتي وقع عليها المئات من الخبراء والمسؤولين السابقين والشخصيات العامة، بملاحظة واضحة أن الإنسانية عند مفترق طرق. أحد المسارات، الذي تسميه الوثيقة “سباق الاستبدال”، يؤدي إلى استبدال البشر أولاً كعمال، ثم كصانعي قرار، حيث تتجمع السلطة في مؤسسات غير مسؤولة وآلاتها. بينما يؤدي المسار الآخر إلى ذكاء اصطناعي يوسع بشكل كبير من إمكانيات البشر.
يعتمد السيناريو الأخير على خمسة أعمدة رئيسية: الحفاظ على البشر في القيادة، تجنب تركيز السلطة، حماية التجربة الإنسانية، الحفاظ على الحرية الفردية، وتحميل شركات الذكاء الاصطناعي المسؤولية القانونية. ومن بين أحكامها الأكثر قوة هو الحظر التام على تطوير الذكاء الخارق حتى يكون هناك توافق علمي على أنه يمكن القيام به بأمان وبتوافق ديمقراطي حقيقي؛ مفاتيح إيقاف إلزامية للأنظمة القوية؛ وحظر الهياكل القادرة على التكاثر الذاتي، والتحسين الذاتي المستقل، أو المقاومة للإيقاف.
الضغط العام على واشنطن
تزامن إصدار الإعلان مع فترة تجعل من السهل تقدير أهميته. في آخر يوم جمعة من فبراير، قام وزير الدفاع بتسمية أنثروبيك – التي تعمل تقنيتها بالفعل على منصات عسكرية سرية – كـ “خطر على سلسلة التوريد” بعد أن رفضت الشركة منح البنتاغون استخدامًا غير محدود لتقنيتها، وهو تصنيف يُحتفظ عادةً للشركات المرتبطة بالصين. بعد ساعات، أبرمت OpenAI صفقتها الخاصة مع وزارة الدفاع، وهي صفقة يقول الخبراء القانونيون إنه سيكون من الصعب إنفاذها بأي طريقة ذات مغزى. ما كشفته كل هذه الأحداث هو مدى تكلفة عدم اتخاذ الكونغرس أي إجراء بشأن الذكاء الاصطناعي.
كما قال دين بال، زميل أول في مؤسسة الابتكار الأمريكي، لصحيفة نيويورك تايمز بعد ذلك: “هذه ليست مجرد نزاع حول عقد. هذه هي أول محادثة لدينا كدولة حول السيطرة على أنظمة الذكاء الاصطناعي”.
أهمية الاختبارات المسبقة
وصل تيغمارك إلى تشبيه يمكن لمعظم الناس فهمه عندما تحدثنا. “لا داعي للقلق من أن شركة أدوية ستصدر دواءً آخر يسبب ضررًا هائلًا قبل أن يتمكن الناس من جعله آمنًا”، قال. “لأن إدارة الغذاء والدواء لن تسمح لهم بإصدار أي شيء حتى يكون آمنًا بما فيه الكفاية”.
نادراً ما تولد الحروب الإقليمية في واشنطن الضغط العام الذي يغير القوانين. بدلاً من ذلك، يرى تيغمارك أن سلامة الأطفال هي نقطة الضغط الأكثر احتمالاً لكسر الجمود الحالي. في الواقع، يدعو الإعلان إلى اختبارات إلزامية قبل نشر منتجات الذكاء الاصطناعي – وخاصة الدردشات والتطبيقات المرافقة الموجهة نحو المستخدمين الأصغر سناً – تغطي المخاطر بما في ذلك زيادة الأفكار الانتحارية، وتفاقم حالات الصحة النفسية، والتلاعب العاطفي.
“إذا كان هناك رجل غريب يحاول إقناع صبي في الحادية عشرة بالانتحار، يمكنه الذهاب إلى السجن من أجل ذلك”، قال تيغمارك. “لدينا بالفعل قوانين. إنه غير قانوني. فلماذا يكون الأمر مختلفًا إذا قامت آلة بذلك؟”
يعتقد أنه بمجرد تأسيس مبدأ الاختبارات قبل الإصدار لمنتجات الأطفال، سيتسع النطاق بشكل شبه حتمي. “سيأتي الناس ويقولون – دعونا نضيف بعض المتطلبات الأخرى. ربما يجب أن نختبر أن هذا لا يمكن أن يساعد الإرهابيين في صنع أسلحة بيولوجية. ربما يجب أن نختبر للتأكد من أن الذكاء الخارق لا يمتلك القدرة على الإطاحة بالحكومة الأمريكية”.
ليس من الأمور الصغيرة أن مستشار ترامب السابق ستيف بانون وسوزان رايس، مستشارة الأمن القومي للرئيس أوباما، قد وقعا على نفس الوثيقة – إلى جانب رئيس هيئة الأركان المشتركة السابق مايك مولن وقادة إيمان تقدميين.
“ما يتفقون عليه، بالطبع، هو أنهم جميعًا بشر”، يقول تيغمارك. “إذا كان الأمر سيعتمد على ما إذا كنا نريد مستقبلًا للبشر أو مستقبلًا للآلات، فإنهم بالطبع سيكونون على نفس الجانب.”
إنه وقت حاسم للبشرية، حيث يتطلب الأمر منا اتخاذ قرارات حاسمة بشأن مستقبل الذكاء الاصطناعي.




