OpenAI تطلق ميزة جهات الاتصال الموثوقة في ChatGPT

أعلنت OpenAI عن إطلاق ميزة جديدة في ChatGPT تهدف إلى تعزيز سلامة المستخدمين خلال الأزمات الصحية العقلية.
OpenAI تقدم ميزة جهات الاتصال الموثوقة في ChatGPT
أعلنت OpenAI أنها ستقدم ميزة “جهات الاتصال الموثوقة” في ChatGPT، والتي ستقوم بتنبيه شخص مختار من قبل المستخدم في حال حدوث أزمة صحية عقلية محتملة أثناء استخدامه للروبوت.
تم الإعلان عن هذه الميزة الأسبوع الماضي في منشور مدونة، حيث تم وصفها بأنها “تحديث حول أعمالنا المتعلقة بالصحة العقلية”. وأكدت الشركة أنها تعمل عن كثب مع مجلس الرفاهية والذكاء الاصطناعي وشبكة الأطباء العالمية — وهما مجموعتان من الخبراء تم تشكيلهما بعد ظهور تقارير عن أزمات صحية عقلية مرتبطة بالذكاء الاصطناعي، بالإضافة إلى أخبار عن دعوى قضائية بارزة في أغسطس الماضي تكشف عن وفاة مراهق يبلغ من العمر 16 عامًا بسبب الانتحار بعد استخدامه ChatGPT.
تأتي هذه الخطوة بعد تقارير عامة واسعة النطاق، بالإضافة إلى ما لا يقل عن ثلاثة عشر دعوى قضائية تتعلق بسلامة المستهلك، حول انزلاق مستخدمي OpenAI إلى دوامات وهمية أو انتحارية بعد استخدام ChatGPT بشكل مكثف.
لا تقدم الشركة تفاصيل كثيرة حول الميزة في المنشور، حيث قالت ببساطة إنها ستتيح للمستخدمين البالغين تعيين شخص لتلقي إشعارات عندما يحتاجون إلى دعم إضافي. ومع ذلك، لم تحدد أي معايير للتقارير حول ما قد يدفع النظام لتنبيه شخص ما، مما يمثل سؤال سياسة معقد. هل يحتاج الشخص إلى الإعلان بشكل صريح عن نية إيذاء نفسه أو شخص آخر ليتم إخطار أحبائه؟ أم أن الميزة مصممة لتتبع وإبلاغ عن علامات أقل وضوحًا تشير إلى أن المستخدم قد يكون في حالة أزمة؟
من المحتمل أن نتعلم المزيد مع استعداد OpenAI لإطلاق الميزة، وقد نراها مفيدة بشكل خاص للمستخدمين الذين يعانون من مرض عقلي معروف. وقد أبلغت Futurism عن عدة حالات لمستخدمين في ChatGPT الذين تمكنوا من إدارة مرض عقلي لعدة سنوات قبل أن ينزلقوا إلى أزمة مرتبطة بالذكاء الاصطناعي. في العديد من الحالات التي قمنا بمراجعتها، بالإضافة إلى تعزيز الأوهام العلمية أو الروحية، شجع ChatGPT المستخدمين الذين يعانون من مرض عقلي على عدم الاستمرار في تناول أدويتهم الموصوفة.
مع ذلك، لا تحذر OpenAI حتى الآن مستخدمي ChatGPT الجدد من أن الاستخدام المكثف قد يؤثر سلبًا على صحتهم العقلية. بينما لا يزال يتم دراسة هذا الأمر، هناك توافق متزايد بين الخبراء أن الروبوتات يمكن أن تفاقم الحالات العقلية الموجودة أو worsen crises الناشئة. يعتمد ملايين الأشخاص على إدارة صحتهم العقلية يوميًا؛ مع ميزة “جهات الاتصال الموثوقة”، سيكون على المستخدم أن يكون على دراية بأن الروبوتات قد تشكل بعض المخاطر على صحتهم العقلية.
هذا “الرغبة” في الإخطار مهمة. يعتمد عدد كبير من الأشخاص على الذكاء الاصطناعي للحصول على الدعم العاطفي والنصائح، وذلك بسبب تكلفته المنخفضة وسهولة الوصول إليه مقارنة بالعلاج البشري الذي غالبًا ما يكون غير متاح.
بعبارة أخرى، قد يناقش بعض المستخدمين مشاكلهم الصحية العقلية، أو يشاركون أفكارًا وهمية أو خطيرة، مع ChatGPT لأنهم لا يريدون مشاركة تلك الأفكار مع شخص آخر — وهي حقيقة يجب أن تتعامل معها شركات الذكاء الاصطناعي والجهات التنظيمية. وإذا كانت أدوات المراقبة الداخلية لـ OpenAI تشير إلى أن شخصًا ما قد يكون في أزمة، ولكن هذا المستخدم لم يختار إدراج جهة اتصال موثوقة، فما الذي ستفعله الشركة بمثل هذه المعلومات؟
لم تؤثر دوامات الذكاء الاصطناعي الوهمية والانتحارية فقط على المستخدمين الذين لديهم تاريخ مرضي عقلي خطير، وفقًا لتقارير Futurism وNew York Times، مما قد يؤثر أيضًا على عدد الأشخاص الذين يختارون استخدام هذه الميزة. على الرغم من أن OpenAI قالت في منشورها إنها “تواصل تعزيز كيفية اكتشاف نماذجنا والاستجابة لعلامات الضيق العاطفي”، فإن ذلك يتضمن “طرق تقييم جديدة تحاكي المحادثات الطويلة المتعلقة بالصحة العقلية” التي تقول الشركة إنها ستساعدها في “تحديد المخاطر المحتملة وتحسين كيفية استجابة ChatGPT في اللحظات الحساسة.”
تقول OpenAI إنها تستضيف 900 مليون مستخدم لـ ChatGPT كل أسبوع. وفقًا لتقديراتها، اعتبارًا من أكتوبر، هناك ملايين من مستخدمي ChatGPT الأسبوعيين الذين يظهرون علامات على الانتحارية، والذهان، وأزمات أخرى. بينما لا يزال فعالية هذه الميزة غير مؤكدة، يبدو أنها خطوة إيجابية — على الرغم من أن جهود الشركة لتخفيف المخاطر التي قد تشكلها منتجاتها على مستخدميها لا تزال تبدو تفاعلية، وليست استباقية.
المزيد عن الذكاء الاصطناعي والصحة العقلية: يمكن أن يؤدي استخدام الروبوتات إلى تفاقم الأمراض العقلية، وفقًا للأبحاث.
تظل جهود OpenAI في تحسين تجربة المستخدمين مع الذكاء الاصطناعي مستمرة، مع التركيز على تعزيز السلامة والدعم العاطفي.




