تقنيات المستقبل

FlexOlmo: تقنية جديدة تمنح مالكي البيانات السيطرة على استخدامها في تدريب نماذج الذكاء الاصطناعي

البيانات هي شريان الحياة للذكاء الاصطناعي الحديث، إلا أن القلق المتزايد بشأن الخصوصية وحقوق الاستخدام دفع العديد من مالكي البيانات للبحث عن وسائل لحماية معلوماتهم من الاستخدام غير المصرح به. في هذا السياق، قدم معهد Allen للذكاء الاصطناعي (AI2) نموذجًا جديدًا يُدعى FlexOlmo، يتيح تدريب النماذج على البيانات الخاصة دون الحاجة إلى مشاركة البيانات الخام أو فقدان السيطرة عليها لاحقًا.

مشكلة النماذج الحالية: السيطرة الضائعة

تعتمد النماذج الكبرى في الذكاء الاصطناعي، مثل GPT وClaude، على كميات هائلة من البيانات التي تم جمعها من الإنترنت دون موافقة صريحة من أصحابها.
في النموذج التقليدي، بمجرد مشاركة البيانات للتدريب، لا يمكن سحبها لاحقًا أو التحكم في كيفية استخدامها. كما أن إزالة البيانات من نموذج تم تدريبه مسبقًا تتطلب إعادة تدريب كاملة ومكلفة.

ما هو FlexOlmo؟

يعتمد FlexOlmo على معمارية Mixture of Experts (MoE) التي تقسم النموذج إلى عدة “خبراء”، كل منهم مدرب على نوع معين من البيانات أو المهام.
باستخدام FlexOlmo، يمكن لكل مالك بيانات أن:

  • يدرب نموذجًا خاصًا به على بياناته دون مشاركتها فعليًا.

  • يُدمج هذا النموذج مع نماذج أخرى لتكوين نموذج جماعي.

  • يسحب مساهمته في أي وقت دون التأثير على بقية النموذج.

كيف يعمل FlexOlmo؟

  1. يبدأ كل مالك بيانات بنسخة من نموذج عام تم تدريبه مسبقًا على بيانات عامة.

  2. يتم إنشاء نسختين من هذا النموذج:

    • واحدة يتم تدريبها على البيانات الخاصة.

    • الأخرى تبقى ثابتة (Anchor) للحفاظ على توازن التنسيق.

  3. يتم تدريب النموذجين بشكل متزامن، مما يُمكِّن النموذج الجديد من التنسيق مع النسخة العامة.

  4. يتم دمج النماذج الخاصة في نموذج موحد دون تعارضات.

✅ بهذه الطريقة، يمكن تدريب النماذج على بيانات حساسة (مثل الرعاية الصحية أو البيانات الحكومية) دون المساس بالخصوصية أو السيطرة.

المزايا الجوهرية لـ FlexOlmo

  • لا حاجة لمشاركة البيانات الخام.

  • إمكانية تحديد نوع المهام التي يشارك بها النموذج.

  • القدرة على الانسحاب أو سحب النموذج بعد التدريب.

  • أداء أعلى عند دمج النماذج مقارنةً بالنموذج العام فقط.

  • إمكانية الدمج مع تقنيات خصوصية مثل Differential Privacy لزيادة الأمان.

هل هناك مخاطر؟

نعم، يعترف الباحثون بإمكانية أن يتمكن مهاجمون من استخلاص بيانات حساسة من النماذج المدمجة.
ومع ذلك، أظهرت التجارب أن هذا الخطر منخفض للغاية، ويمكن تقليله أكثر عبر تقنيات مثل:

plaintext
Differential Privacy
Homomorphic Encryption
Federated Learning

ما التحدي الأكبر؟

قد يكون FlexOlmo مرهقًا أو معقدًا لبعض مطوري النماذج الذين يركزون على الأداء أكثر من الخصوصية.
لكنّه يقدم حلاً قويًا لفتح الوصول إلى مجموعات بيانات مغلقة كانت سابقًا غير قابلة للمشاركة بسبب مخاوف الأمان أو الخصوصية.

مع تصاعد القلق العالمي بشأن كيفية استخدام البيانات الشخصية في تدريب الذكاء الاصطناعي، يقدم FlexOlmo نموذجًا عمليًا يجمع بين الخصوصية والكفاءة.
هذا التوجه الجديد قد يكون المفتاح لفتح الباب أمام مشاركة البيانات في المجالات الحرجة دون المساس بحقوق المستخدمين أو المخاطرة بمعلوماتهم.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى