هل أصبح الذكاء الاصطناعي قادرًا على فهم المشاعر والانتماءات السياسية والسخرية كما يفعل البشر؟

عند التواصل مع الآخرين عبر البريد الإلكتروني أو وسائل التواصل الاجتماعي، غالبًا ما لا نقول ما نقصده بشكل مباشر، بل نترك المعنى الحقيقي ضمنيًا أو كنوع من السياق الخفي. ولكن ماذا لو كان الطرف الآخر ذكاءً اصطناعيًا بدلاً من إنسان؟ هل يستطيع هذا الذكاء الاصطناعي، لا سيما القائم على المحادثات، فهم المعاني الكامنة في النصوص البشرية؟ وإذا كان الجواب نعم، فما الذي يعنيه ذلك لنا؟
تحليل المحتوى الكامن: أكثر من مجرد كلمات
تحليل المحتوى الكامن هو مجال يهتم بالكشف عن المعاني العميقة والمشاعر والانحيازات السياسية والسخرية المخبأة في النصوص. يمكن لهذا النوع من التحليل أن يكشف ميولًا سياسية غير واضحة في خطاب معين أو يفهم مدى شدة المشاعر في منشور ما، وهو أمر بالغ الأهمية في مجالات مثل الصحة النفسية، وخدمة العملاء، والأمن الوطني.
هذه الإمكانات يمكن أن تحدث فرقًا ملموسًا في مجالات مثل الأبحاث الاجتماعية، وصنع السياسات، وتحليل السوق، وغيرها.
أبحاث حديثة: هل الذكاء الاصطناعي يقرأ ما بين السطور؟
أظهرت دراسات سابقة أن أدوات الذكاء الاصطناعي مثل ChatGPT تواجه تحديات في كشف الميول السياسية أو السخرية. ومع ذلك، فإن الدراسة الجديدة المنشورة في مجلة Scientific Reports أجرت تقييمًا أكثر شمولًا لقدرات الذكاء الاصطناعي، بما في ذلك:
-
تحليل المشاعر
-
تحديد الانتماءات السياسية
-
قياس شدة المشاعر
-
الكشف عن السخرية
وشملت الدراسة تقييم سبعة نماذج من الذكاء الاصطناعي، منها:
GPT-4، Gemini، Llama-3.1-70B، Mixtral 8×7B، و33 متطوعًا بشريًا، لتحليل 100 عينة نصية.
النتائج: الذكاء الاصطناعي ينافس البشر
وجد الباحثون أن النماذج المدروسة قادرة على أداء المهام التحليلية بنفس كفاءة البشر تقريبًا. وكان نموذج GPT-4 الأكثر تميزًا من حيث:
▪ كشف الانتماءات السياسية بدقة وثبات
وهو أمر بالغ الأهمية في الصحافة والصحة العامة والعلوم السياسية.
▪ قياس شدة المشاعر بدقة
سواء كانت التغريدة تعبر عن انزعاج بسيط أو غضب عارم، استطاع النموذج التمييز—رغم أن تقييمه غالبًا ما يُقلل من شدة العاطفة.
▪ أداء متوسط في اكتشاف السخرية
ومع أن هذا الضعف موجود أيضًا لدى البشر، إلا أنه يظل تحديًا حقيقيًا للآلات والإنسان على حد سواء.
الفوائد المحتملة: من الأبحاث إلى الإعلام
تشير الدراسة إلى أن هذه النماذج قد تكون أداة قوية في:
-
تحليل محتوى الإنترنت الضخم بسرعة وفعالية بدلًا من الأشهر التي يستغرقها الباحثون البشريون.
-
تحسين قدرة الصحفيين على كشف الانحياز السياسي أو العاطفي في المنشورات.
-
دعم الباحثين في أوقات الأزمات مثل الانتخابات أو الأوبئة بمعلومات دقيقة وسريعة.
التحديات: هل يمكننا الوثوق بهذه الأنظمة؟
رغم التفاؤل، لا تزال هناك مخاوف بشأن:
-
الشفافية في كيفية اتخاذ النموذج للقرارات.
-
التحيّزات المحتملة التي قد يعكسها الذكاء الاصطناعي نفسه.
-
ثبات النتائج عند تغيير صياغة السؤال أو ترتيب المعلومات.
لذلك، تدعو الدراسة إلى تحليل منهجي لاستقرار النماذج، لا سيما في التطبيقات الحساسة.
هل يمكن للآلة أن تحس؟
لا تدعي هذه الدراسة أن الذكاء الاصطناعي قد تفوق على البشر، لكنها تنفي فكرة أنه عاجز عن فهم اللغة بعمق. في الواقع، يبدو أننا نقترب من حقبة يصبح فيها الذكاء الاصطناعي شريكًا لغويًا ذكيًا أكثر من مجرد أداة.