تجاوز المخاطر الناتجة عن استخدام أدوات الذكاء الاصطناعي الصينية

في ظل الاستخدام المتزايد لأدوات الذكاء الاصطناعي التوليدية، تبرز المخاطر المرتبطة باستخدام هذه الأدوات التي تم تطويرها في الصين. تتناول هذه المقالة التحديات والفرص التي تواجهها الشركات.
تجاوز المخاطر الناتجة عن استخدام أدوات الذكاء الاصطناعي الصينية
تشير تحليل حديث للبيانات المؤسسية إلى أن أدوات الذكاء الاصطناعي التوليدية التي تم تطويرها في الصين تُستخدم بشكل واسع من قبل الموظفين في الولايات المتحدة والمملكة المتحدة، وغالبًا دون إشراف أو موافقة من فرق الأمان. وقد أظهرت الدراسة، التي أجرتها Harmonic Security، وجود مئات الحالات التي تم فيها تحميل بيانات حساسة على منصات مستضافة في الصين، مما يثير المخاوف بشأن الامتثال، ومكان إقامة البيانات، وسرية المعلومات التجارية.
على مدار فترة 30 يومًا، قامت Harmonic بدراسة نشاط عينة من 14,000 موظف عبر مجموعة من الشركات. وُجد أن ما يقرب من 8 في المئة قد استخدموا أدوات الذكاء الاصطناعي التوليدية المستندة إلى الصين، بما في ذلك DeepSeek وKimi Moonshot وBaidu Chat وQwen (من Alibaba) وManus. هذه التطبيقات، على الرغم من قوتها وسهولة الوصول إليها، توفر عادةً معلومات قليلة حول كيفية التعامل مع البيانات المحملة أو تخزينها أو إعادة استخدامها.
تؤكد النتائج على الفجوة المتزايدة بين اعتماد الذكاء الاصطناعي والحوكمة، خاصة في المنظمات التي تركز على التطوير حيث غالبًا ما يتفوق الوقت المستغرق في الإنتاج على الامتثال للسياسات.
تسرب البيانات على نطاق واسع
في المجموع، تم تحميل أكثر من 17 ميغابايت من المحتوى على هذه المنصات بواسطة 1,059 مستخدمًا. وقد حددت Harmonic 535 حادثة منفصلة تتعلق بمعلومات حساسة. وكونت تقريبًا ثلث تلك المواد من الشيفرة المصدرية أو الوثائق الهندسية. بينما تضمنت البقية مستندات تتعلق بالاندماجات والاستحواذات، والتقارير المالية، والمعلومات الشخصية القابلة للتحديد، والعقود القانونية، وسجلات العملاء.
أشارت دراسة Harmonic إلى أن DeepSeek هو الأداة الأكثر شيوعًا، المرتبطة بـ 85 في المئة من الحوادث المسجلة. كما أن Kimi Moonshot وQwen تشهدان زيادة في الاستخدام. بشكل جماعي، تعيد هذه الخدمات تشكيل كيفية ظهور الذكاء الاصطناعي التوليدي داخل الشبكات المؤسسية. ليس من خلال المنصات المعتمدة، ولكن من خلال اعتماد هادئ يقوده المستخدمون.
غالبًا ما تعمل خدمات الذكاء الاصطناعي التوليدية الصينية تحت سياسات بيانات مرنة أو غامضة. في بعض الحالات، تسمح شروط المنصة باستخدام المحتوى المحمل لتدريب نماذج إضافية. الآثار كبيرة بالنسبة للشركات التي تعمل في قطاعات منظمة أو تتعامل مع برامج ملكية وخطط أعمال داخلية.
تطبيق السياسات من خلال الضوابط التقنية
طورت Harmonic Security أدوات لمساعدة الشركات على استعادة السيطرة على كيفية استخدام الذكاء الاصطناعي في مكان العمل. تراقب منصتها نشاط الذكاء الاصطناعي في الوقت الحقيقي وتفرض السياسات في لحظة الاستخدام.
تمتلك الشركات ضوابط دقيقة لحظر الوصول إلى تطبيقات معينة بناءً على موقع المقر الرئيسي، وتقييد أنواع معينة من البيانات من أن يتم تحميلها، وتثقيف المستخدمين من خلال مطالبات سياقية.
الحوكمة كضرورة استراتيجية
لم يعد استخدام الذكاء الاصطناعي التوليدي غير المصرح به داخل الشركات مفترضًا. تُظهر بيانات Harmonic أن ما يقرب من واحد من كل اثني عشر موظفًا يتفاعل بالفعل مع منصات الذكاء الاصطناعي التوليدية الصينية، وغالبًا دون وعي بمخاطر الاحتفاظ بالبيانات أو التعرض للاختصاص القضائي.
تشير النتائج إلى أن الوعي وحده غير كافٍ. ستحتاج الشركات إلى ضوابط نشطة ومفروضة إذا كانت ترغب في تمكين اعتماد الذكاء الاصطناعي دون المساس بالامتثال أو الأمان. مع نضوج التكنولوجيا، قد تثبت القدرة على إدارة استخدامها أنها بنفس أهمية أداء النماذج نفسها.
تجعل Harmonic من الممكن الاستفادة من فوائد الذكاء الاصطناعي التوليدي دون تعريض عملك لمخاطر غير ضرورية.
تعرف على المزيد حول كيفية مساعدة Harmonic في فرض سياسات الذكاء الاصطناعي وحماية البيانات الحساسة على harmonic.security.
لضمان الأمان والامتثال، يجب على الشركات اتخاذ خطوات فعالة في إدارة استخدام أدوات الذكاء الاصطناعي. تعرف على المزيد حول كيفية حماية بياناتك.




