تقنيات المستقبل

استقالة باحث من OpenAI تكشف عن الرقابة على أبحاث الذكاء الاصطناعي

تستعرض هذه المقالة استقالة باحث من OpenAI، مما يكشف عن مخاوف بشأن الرقابة على الأبحاث وتأثير الذكاء الاصطناعي على الاقتصاد.

استقالة باحث من OpenAI، مدعيًا أن الشركة تخفي الحقيقة

الصورة بواسطة تاج هارتمان-سيمكينز / فيوتوريزم. المصدر: تشيب سوموديفيلا / غيتي إيمجز

لطالما نشرت OpenAI أبحاثًا حول الأثر المحتمل لسلامة وتقنية الذكاء الاصطناعي على الاقتصاد.

الآن، أفادت وايرد أن الشركة التي يقودها سام ألتمان أصبحت أكثر “تحفظًا” بشأن نشر الأبحاث التي تعرض حقيقة غير مريحة: أن الذكاء الاصطناعي قد يكون ضارًا للاقتصاد.

أصبح الإحساس بالرقابة نقطة إحباط كبيرة لدرجة أن اثنين على الأقل من موظفي OpenAI الذين يعملون في فريق الأبحاث الاقتصادية قد استقالوا من الشركة، وفقًا لأربعة مصادر من وايرد.

كان أحد هؤلاء الموظفين هو الباحث الاقتصادي توم كانينغهام. في رسالته الأخيرة التي شاركها داخليًا، كتب أن فريق الأبحاث الاقتصادية كان ينحرف بعيدًا عن القيام بأبحاث حقيقية وبدلاً من ذلك يتصرف كذراع دعاية لصاحب العمل.

بعد فترة قصيرة من مغادرة كانينغهام، أرسل جيسون كوان، المدير الاستراتيجي للشركة، مذكرة تقول إن الشركة يجب أن “تبني حلولًا”، وليس مجرد نشر أبحاث حول “مواضيع صعبة”.

كتب كوان على سلاك: “وجهة نظري بشأن المواضيع الصعبة ليست أننا لا ينبغي أن نتحدث عنها. بل، لأننا لسنا مجرد مؤسسة بحثية، ولكننا أيضًا فاعل في العالم (الفاعل الرائد في الواقع) الذي يضع موضوع الاستفسار (الذكاء الاصطناعي) في العالم، نتوقع أن نتحمل المسؤولية عن النتائج”.

تعتبر الرقابة المبلغ عنها، أو على الأقل العداء تجاه متابعة العمل الذي يصور الذكاء الاصطناعي بشكل غير جذاب، تجسيدًا لتحول OpenAI بعيدًا عن جذورها غير الربحية والظاهر أنها إنسانية بينما تتحول بدلاً من ذلك إلى عملاق اقتصادي عالمي.

عندما تأسست OpenAI في عام 2016، كانت تدافع عن الذكاء الاصطناعي مفتوح المصدر والأبحاث. اليوم، نماذجها مغلقة المصدر، وقد أعادت هيكلة نفسها لتصبح شركة ربحية ذات منفعة عامة. من غير الواضح بالضبط متى، لكن التقارير تشير أيضًا إلى أن الكيان الخاص يخطط للطرح العام بقيمة تريليون دولار، ومن المتوقع أن يكون أحد أكبر الطروحات العامة الأولية في كل العصور.

على الرغم من أن ذراعها غير الربحية لا تزال تتحكم بشكل اسمي، حصلت OpenAI على مليارات الدولارات من الاستثمارات، ووقعت صفقات قد تجلب مئات المليارات من المزيد، بينما دخلت أيضًا في عقود لإنفاق مبالغ مذهلة من المال. حصلت OpenAI على موافقة صانع رقائق الذكاء الاصطناعي لاستثمار ما يصل إلى 100 مليار دولار فيها من جهة، وتقول إنها ستدفع لمايكروسوفت ما يصل إلى 250 مليار دولار مقابل خدمات السحابة Azure من الجهة الأخرى.

مع وجود هذا النوع من المال في الميزان، لديها مليارات من الأسباب التي قد تجعلها لا ترغب في نشر النتائج التي تهز ثقة الجمهور المتذبذبة بالفعل في تقنيتها – حيث يخشى الكثيرون من قدرتها على تدمير أو استبدال الوظائف، ناهيك عن الحديث عن فقاعة الذكاء الاصطناعي أو المخاطر الوجودية للبشرية من التقنية.

تحت إشراف آرون تشاتيرجي، يتم حاليًا إدارة الأبحاث الاقتصادية لـ OpenAI. وفقًا لـ وايرد، قاد تشاتيرجي تقريرًا صدر في سبتمبر أظهر كيف استخدم الناس حول العالم ChatGPT، مؤطرًا إياه كدليل على كيفية خلقه قيمة اقتصادية من خلال زيادة الإنتاجية. إذا بدا ذلك مشبوهًا بشكل مفرط، فقد زعم اقتصادي عمل سابقًا مع OpenAI واختار البقاء مجهول الهوية لـ وايرد أنه كان ينشر بشكل متزايد أعمالًا تمجد تقنيته الخاصة.

لم يكن كانينغهام هو الموظف الوحيد الذي غادر الشركة بسبب القلق الأخلاقي حول اتجاهها. قال ويليام ساوندرز، عضو سابق في فريق “السوبرالينمنت” الذي لم يعد موجودًا، إنه استقال بعد أن أدرك أنه “يتم إعطاء الأولوية لإصدار منتجات جديدة وأكثر لمعانًا” على حساب سلامة المستخدم. بعد مغادرته العام الماضي، انتقد الباحث السابق في السلامة ستيفن أدلر OpenAI مرارًا وتكرارًا بسبب نهجها المتهور في تطوير الذكاء الاصطناعي، مشددًا على كيف أن ChatGPT بدا أنه يقود مستخدميه إلى أزمات عقلية ودوامات وهمية. ذكرت وايرد أن رئيس أبحاث السياسة السابق في OpenAI، مايلز بروندج، اشتكى بعد مغادرته العام الماضي أنه أصبح “صعبًا” نشر الأبحاث “حول جميع المواضيع التي تهمني”.

المزيد عن OpenAI: سام ألتمان يقول إن رعاية طفل أصبحت الآن مستحيلة بدون ChatGPT

تستمر النقاشات حول دور OpenAI في تطوير الذكاء الاصطناعي وتأثيره على المجتمع، مما يثير تساؤلات حول المستقبل.

مقالات ذات صلة

زر الذهاب إلى الأعلى