تحليلات

تحذيرات المدعين العامين لشركات الذكاء الاصطناعي: ضرورة التصحيح

في ظل تزايد القلق حول تأثيرات الذكاء الاصطناعي على الصحة النفسية، أرسل المدعون العامون للدولة تحذيرات هامة لشركات التكنولوجيا الكبرى.

تحذير من المدعين العامين للدولة لشركات الذكاء الاصطناعي

بعد سلسلة من الحوادث المقلقة المتعلقة بالصحة النفسية التي تشمل روبوتات الدردشة الذكية، أرسل مجموعة من المدعين العامين للدولة رسالة إلى أبرز شركات الذكاء الاصطناعي، محذرين من “المخرجات الوهمية” أو المخاطرة بخرق القوانين المحلية.

محتوى الرسالة

الرسالة، التي وقع عليها العشرات من المدعين العامين من الولايات والأقاليم الأمريكية بالتعاون مع الرابطة الوطنية للمدعين العامين، تطلب من الشركات، بما في ذلك مايكروسوفت، OpenAI، جوجل، وعشر شركات ذكاء اصطناعي رئيسية أخرى، تنفيذ مجموعة متنوعة من الضمانات الداخلية الجديدة لحماية مستخدميها. وقد تم تضمين شركات مثل Anthropic، Apple، Chai AI، Character Technologies، Luka، Meta، Nomi AI، Perplexity AI، Replika، وxAI في الرسالة.

تطورات تنظيم الذكاء الاصطناعي

تأتي الرسالة في وقت تتصاعد فيه النزاعات حول تنظيم الذكاء الاصطناعي بين الحكومة الفيدرالية وحكومات الولايات.

تشمل تلك الضمانات تدقيقات خارجية شفافة لنماذج اللغة الكبيرة التي تبحث عن علامات الوهم أو الأفكار المبالغة، بالإضافة إلى إجراءات جديدة للإبلاغ عن الحوادث تهدف إلى إبلاغ المستخدمين عندما تنتج روبوتات الدردشة مخرجات نفسية ضارة. يجب أن يُسمح لتلك الأطراف الثالثة، والتي قد تشمل مجموعات أكاديمية ومجتمعية، بـ”تقييم الأنظمة قبل إصدارها دون انتقام ونشر نتائجها دون موافقة مسبقة من الشركة”، كما تنص الرسالة.

الآثار المحتملة للذكاء الاصطناعي

تقول الرسالة: “لدى GenAI القدرة على تغيير كيفية عمل العالم بشكل إيجابي. ولكنها أيضًا تسببت – ولديها القدرة على التسبب – في أضرار جسيمة، خاصة للفئات الضعيفة”، مشيرة إلى عدد من الحوادث المعروفة خلال العام الماضي – بما في ذلك حالات انتحار وجرائم قتل – حيث تم ربط العنف بالاستخدام المفرط للذكاء الاصطناعي. “في العديد من هذه الحوادث، أنتجت منتجات GenAI مخرجات مفرطة أو وهمية شجعت إما أوهام المستخدمين أو أكدت لهم أنهم ليسوا وهميين.”

يقترح المدعون العامون أيضًا أن تتعامل الشركات مع الحوادث النفسية بنفس الطريقة التي تتعامل بها شركات التكنولوجيا مع حوادث الأمن السيبراني – من خلال سياسات وإجراءات واضحة وشفافة للإبلاغ عن الحوادث.

اختبارات السلامة المطلوبة

يجب على الشركات تطوير ونشر “جداول زمنية للكشف والاستجابة للمخرجات المفرطة والوهمية”، كما تنص الرسالة. على غرار كيفية التعامل مع خروقات البيانات حاليًا، يجب على الشركات أيضًا “إبلاغ المستخدمين بسرعة ووضوح وبشكل مباشر إذا تعرضوا لمخرجات مفرطة أو وهمية ضارة”، كما تقول الرسالة.

طلب آخر هو أن تطور الشركات “اختبارات سلامة معقولة ومناسبة” على نماذج GenAI لضمان أن النماذج لا تنتج مخرجات مفرطة أو وهمية ضارة. يجب إجراء هذه الاختبارات قبل أن تُعرض النماذج على الجمهور.

لم تتمكن TechCrunch من الوصول إلى جوجل أو مايكروسوفت أو OpenAI للتعليق قبل النشر. سيتم تحديث المقالة إذا استجابت الشركات.

استقبال الذكاء الاصطناعي على المستوى الفيدرالي

لقد حظيت شركات التكنولوجيا التي تطور الذكاء الاصطناعي باستقبال أكثر دفئًا على المستوى الفيدرالي.

لقد أوضحت إدارة ترامب أنها تدعم الذكاء الاصطناعي بلا تردد، وعلى مدار العام الماضي، تم القيام بعدة محاولات لتمرير حظر وطني على تنظيم الذكاء الاصطناعي على مستوى الولايات. حتى الآن، فشلت تلك المحاولات – بفضل الضغط من المسؤولين في الولايات.

ولم تثنيها تلك المحاولات، أعلن ترامب يوم الاثنين أنه يخطط لتمرير أمر تنفيذي الأسبوع المقبل سيحد من قدرة الولايات على تنظيم الذكاء الاصطناعي. قال الرئيس في منشور على Truth Social إنه يأمل أن يمنع أمره التنفيذي الذكاء الاصطناعي من “التدمير في مراحله الأولى”.

مع استمرار النقاشات حول تنظيم الذكاء الاصطناعي، يبقى من المهم أن تتخذ الشركات خطوات فعالة لضمان سلامة مستخدميها.

مقالات ذات صلة

زر الذهاب إلى الأعلى