تغييرات Anthropic في سياسة الخصوصية: مشاركة بيانات المستخدمين لتدريب الذكاء الاصطناعي

تواجه شركة Anthropic انتقادات واسعة بعد إعلانها عن تغييرات جوهرية في سياسة الخصوصية لمستخدمي منتجاتها الاستهلاكية، إذ أصبح على جميع مستخدمي Claude اتخاذ قرار قبل تاريخ 28 سبتمبر بشأن ما إذا كانوا سيوافقون على استخدام محادثاتهم وبياناتهم في تدريب أنظمة الذكاء الاصطناعي الخاصة بالشركة.
ما الذي تغيّر؟
في السابق، لم تكن Anthropic تستخدم بيانات محادثات المستخدمين العاديين لتدريب النماذج. لكن الآن، تخطط الشركة لاستخدام هذه البيانات، بما في ذلك جلسات المحادثة والبرمجة، مع تمديد فترة الاحتفاظ بالبيانات إلى خمس سنوات في حال عدم تفعيل خيار الانسحاب.
سابقًا، كانت الشركة تحذف بيانات المستخدمين تلقائيًا بعد 30 يومًا، إلا إذا كان هناك التزام قانوني أو خرق للسياسات، حيث يمكن أن تُحتفظ البيانات لمدة تصل إلى عامين.
السياسات الجديدة تنطبق على مستخدمي Claude Free وPro وMax وClaude Code، بينما تظل الشركات والمؤسسات التعليمية والحكومية التي تستخدم Claude for Work وClaude Gov وClaude for Education أو واجهة API بمنأى عن هذه التغييرات، كما هو الحال مع سياسة OpenAI تجاه عملائها من المؤسسات.
دوافع التغيير
قدّمت Anthropic هذه الخطوة باعتبارها “خيارًا للمستخدمين” بهدف تحسين أمان النماذج وتطوير قدراتها في الكود والتحليل والاستدلال. لكن الحقيقة الأعمق هي أن الشركة تحتاج إلى كميات هائلة من البيانات عالية الجودة لتقوية موقعها التنافسي أمام شركات مثل OpenAI وGoogle.
الوصول إلى ملايين المحادثات الواقعية سيوفر محتوى مثاليًا لتسريع تطوير النماذج وتحسينها.
الضغط التنافسي والبيئة القانونية
هذه الخطوة ليست معزولة عن التوجه الأوسع في صناعة الذكاء الاصطناعي، حيث تواجه الشركات ضغوطًا متزايدة بشأن سياسات الاحتفاظ بالبيانات. على سبيل المثال، تخوض OpenAI نزاعًا قضائيًا مع صحيفة نيويورك تايمز وناشرين آخرين، ما أجبرها على الاحتفاظ بجميع محادثات المستخدمين، بما في ذلك المحذوفة، بشكل غير محدود.
انتقدت OpenAI هذا القرار واعتبرته “مطلبًا مفرطًا يتعارض مع وعود الخصوصية”.
مشكلة الموافقة الواعية
أحد أبرز المخاوف يكمن في طريقة عرض Anthropic لخيارات الموافقة. فالمستخدمون الحاليون يواجهون نافذة منبثقة بعنوان “تحديثات شروط المستهلك وسياسات الخصوصية” مع زر أسود كبير لـ “الموافقة”، بينما يظهر خيار الانسحاب من التدريب أسفل الشاشة بحجم أصغر ومفعل تلقائيًا. هذا التصميم قد يدفع المستخدمين إلى القبول السريع دون إدراك تبعاته.
خبراء الخصوصية يحذرون منذ سنوات من أن تعقيد أنظمة الذكاء الاصطناعي يجعل تحقيق “الموافقة المستنيرة” أمرًا شبه مستحيل. بل إن لجنة التجارة الفيدرالية الأمريكية (FTC) حذّرت من اتخاذ إجراءات ضد الشركات التي تُخفي تغييرات سياسات الخصوصية خلف نصوص مطولة أو خيارات صغيرة يصعب ملاحظتها.
تغييرات Anthropic الأخيرة تفتح نقاشًا أوسع حول الشفافية في سياسات الخصوصية وحق المستخدمين في التحكم في بياناتهم. وبينما تسعى الشركة لتعزيز نماذجها عبر بيانات المحادثات، يبقى السؤال: هل يحصل المستخدمون فعلًا على فرصة عادلة لاتخاذ قرار مستنير بشأن خصوصيتهم؟