تجاوز المخاطر الناتجة عن استخدام أدوات الذكاء الاصطناعي الصينية

تجاوز المخاطر الناتجة عن استخدام أدوات الذكاء الاصطناعي الصينية
تشير تحليلات حديثة للبيانات المؤسسية إلى أن أدوات الذكاء الاصطناعي التوليدية التي تم تطويرها في الصين تُستخدم بشكل واسع من قبل الموظفين في الولايات المتحدة والمملكة المتحدة، وغالبًا بدون إشراف أو موافقة من فرق الأمن. وقد أظهرت الدراسة التي أجرتها شركة Harmonic Security وجود مئات الحالات التي تم فيها تحميل بيانات حساسة على منصات مستضافة في الصين، مما يثير القلق بشأن الامتثال، وإقامة البيانات، وسرية الأعمال التجارية.
على مدار 30 يومًا، قامت Harmonic بمراجعة نشاط عينة من 14,000 موظف عبر مجموعة من الشركات. وُجد أن ما يقرب من 8 في المئة منهم قد استخدموا أدوات الذكاء الاصطناعي التوليدية المستندة إلى الصين، بما في ذلك DeepSeek وKimi Moonshot وBaidu Chat وQwen (من Alibaba) وManus. توفر هذه التطبيقات، على الرغم من قوتها وسهولة الوصول إليها، معلومات قليلة جدًا حول كيفية معالجة البيانات المحملة أو تخزينها أو إعادة استخدامها.
تسلط النتائج الضوء على الفجوة المتزايدة بين اعتماد الذكاء الاصطناعي والحوكمة، خاصة في المنظمات التي تركز على المطورين حيث غالبًا ما يتفوق الوقت المستغرق للإنتاج على الامتثال للسياسات.
تسرب البيانات على نطاق واسع
تم تحميل أكثر من 17 ميغابايت من المحتوى على هذه المنصات بواسطة 1,059 مستخدمًا. حددت Harmonic 535 حادثة منفصلة تتعلق بمعلومات حساسة. وثلث هذه المواد تقريبًا تتكون من شفرة المصدر أو الوثائق الهندسية. بينما تضمنت البقية مستندات تتعلق بالاندماجات والاستحواذات، والتقارير المالية، والمعلومات الشخصية القابلة للتحديد، والعقود القانونية، وسجلات العملاء.
أشارت دراسة Harmonic إلى أن DeepSeek هو الأداة الأكثر شيوعًا، المرتبطة بـ 85 في المئة من الحوادث المسجلة. كما أن Kimi Moonshot وQwen يشهدان أيضًا زيادة في الاستخدام. بشكل جماعي، تعيد هذه الخدمات تشكيل كيفية ظهور الذكاء الاصطناعي التوليدي داخل الشبكات المؤسسية، ليس من خلال المنصات المعتمدة، ولكن من خلال اعتماد هادئ يقوده المستخدمون.
تعمل خدمات الذكاء الاصطناعي الصينية غالبًا تحت سياسات بيانات مرنة أو غامضة. في بعض الحالات، تسمح شروط المنصة باستخدام المحتوى المحمل لتدريب نماذج إضافية. الآثار كبيرة بالنسبة للشركات التي تعمل في قطاعات منظمة أو تتعامل مع برمجيات ملكية وخطط عمل داخلية.
تطبيق السياسات من خلال الضوابط الفنية
طورت Harmonic Security أدوات لمساعدة الشركات على استعادة السيطرة على كيفية استخدام الذكاء الاصطناعي في مكان العمل. تراقب منصتها نشاط الذكاء الاصطناعي في الوقت الفعلي وتطبق السياسات في لحظة الاستخدام.
تمتلك الشركات ضوابط دقيقة لحظر الوصول إلى تطبيقات معينة بناءً على موقع المقر الرئيسي، وتقييد أنواع معينة من البيانات من التحميل، وتثقيف المستخدمين من خلال مطالبات سياقية.
الحوكمة كضرورة استراتيجية
لم يعد ظهور استخدام الذكاء الاصطناعي التوليدي غير المصرح به داخل المؤسسات افتراضيًا. تظهر بيانات Harmonic أن ما يقرب من واحد من كل اثني عشر موظفًا يتفاعل بالفعل مع منصات الذكاء الاصطناعي الصينية، وغالبًا بدون وعي بمخاطر الاحتفاظ بالبيانات أو التعرض للاختصاص القضائي.
تشير النتائج إلى أن الوعي وحده غير كافٍ. ستحتاج الشركات إلى ضوابط نشطة ومفروضة إذا كانت ترغب في تمكين اعتماد الذكاء الاصطناعي دون المساس بالامتثال أو الأمان. مع نضوج التكنولوجيا، قد تثبت القدرة على إدارة استخدامها أنها بنفس القدر من الأهمية مثل أداء النماذج نفسها.
تجعل Harmonic من الممكن الاستفادة من فوائد الذكاء الاصطناعي التوليدي دون تعريض عملك لمخاطر غير ضرورية.