تحليلات

تقرير جديد يصنّف Gemini من جوجل كـ “عالي المخاطر” للأطفال والمراهقين

أصدرت منظمة Common Sense Media غير الربحية، المتخصصة في تقييم سلامة التكنولوجيا للأطفال، تقريرًا حول منتجات Gemini AI من جوجل، وخلصت إلى أنها تحمل مخاطر عالية على الأطفال والمراهقين.

نتائج التقرير

أشارت المنظمة إلى أن نسختي “تحت 13 عامًا” و”تجربة المراهقين” من Gemini ليست سوى النسخ الموجهة للبالغين مع إضافة بعض المرشحات الأمنية، بدلًا من أن تكون مصممة خصيصًا للأطفال منذ البداية. كما وجد التحليل أن Gemini لا يزال قادرًا على مشاركة محتوى غير مناسب مثل معلومات عن الجنس، المخدرات، الكحول، إضافة إلى نصائح غير آمنة في مجال الصحة النفسية.

هذا الجانب الأخير يُقلق الآباء بشكل خاص، إذ رُبطت بعض حالات انتحار المراهقين مؤخرًا باستخدام روبوتات محادثة بالذكاء الاصطناعي. على سبيل المثال، تواجه OpenAI أول دعوى وفاة غير مشروعة بعد انتحار فتى عمره 16 عامًا يُزعم أنه استشار ChatGPT لعدة أشهر حول خططه. كما سُجلت قضية مشابهة ضد شركة Character.AI.

المخاوف المستقبلية

يأتي هذا التقييم بينما تتداول أخبار عن أن Apple تفكر في اعتماد Gemini كنموذج لغوي (LLM) لنسخة Siri المدعومة بالذكاء الاصطناعي العام القادم، ما قد يعرض المزيد من المراهقين لهذه المخاطر إذا لم تُعالج قضايا السلامة.

تقييم Common Sense

أكد التقرير أن Gemini يفشل في تلبية الاحتياجات المختلفة للفئات العمرية المتنوعة، حيث يحتاج الأطفال الأصغر إلى إرشاد مختلف عن المراهقين. وبسبب هذه الثغرات، صنفت المنظمتان نسختي الأطفال والمراهقين على أنهما عالي الخطورة. وقال روبي توني، مدير برامج الذكاء الاصطناعي في Common Sense:

“منصة الذكاء الاصطناعي الموجهة للأطفال يجب أن تراعي مراحل نموهم المختلفة، لا أن تُقدَّم كنسخة معدلة من منتج مصمم للبالغين”.

رد جوجل

دفعت جوجل بأنها تملك سياسات واضحة لحماية المستخدمين دون 18 عامًا، مع مراجعات أمنية مستمرة بالتعاون مع خبراء خارجيين. كما اعترفت بوجود بعض الثغرات في استجابات Gemini وأضافت حواجز إضافية لمعالجتها. وأوضحت الشركة أن Gemini يحتوي على ضوابط تمنع الدخول في محادثات قد تُوحي بعلاقات شخصية، مشيرة إلى أن بعض النقاط التي ذكرها التقرير ربما تتعلق بميزات غير متاحة للأطفال أصلًا.

مقارنة مع منصات أخرى

أجرت Common Sense سابقًا تقييمات لخدمات ذكاء اصطناعي أخرى:

  • Meta AI وCharacter.AI: غير مقبول (مخاطر شديدة).

  • Perplexity: عالي الخطورة.

  • ChatGPT: متوسط الخطورة.

  • Claude (للبالغين فقط): أقل خطورة.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى