تشير الأدلة إلى أن أنظمة الذكاء الاصطناعي تُشبه البشر إلى حد كبير. هل يُمثل ذلك مشكلة؟

ماذا لو صممنا آلة يمكنها قراءة مشاعرك ونواياك، وتكتب ردودًا مدروسة ومتعاطفة وفي الوقت المناسب – وتبدو وكأنها تعرف تمامًا ما تحتاج إلى سماعه؟ آلة مغرية إلى درجة أنك لن تدرك حتى أنها اصطناعية؟ ماذا لو كانت هذه الآلة موجودة بالفعل؟
في تحليل شمولي نُشر في مجلة الأكاديمية الوطنية للعلوم (PNAS)، أظهرنا أن الجيل الأحدث من روبوتات المحادثة المدعومة بنماذج اللغة الكبيرة (LLMs) بات يضاهي – بل ويتفوق على – معظم البشر في قدرته على التواصل. ويُظهر كمّ متزايد من الأبحاث أن هذه الأنظمة باتت تتجاوز “اختبار تورنغ” بانتظام، فتُقنع المستخدمين بأنهم يتحدثون مع بشر.
لم يكن أحدٌ منا يتوقع ظهور “المتواصلين الخارقين”. لقد علمتنا الخيال العلمي أن الذكاء الاصطناعي سيكون منطقيًا بالكامل وعليمًا، لكنه يفتقر إلى الإنسانية. ومع ذلك، ها نحن نرى اليوم نماذج مثل GPT-4 تتفوق على البشر في الكتابة الإقناعية والمتعاطفة على حد سواء. وأظهرت دراسة أخرى أن هذه النماذج تجيد تقييم المشاعر الدقيقة في الرسائل التي يكتبها البشر.
وتبرع النماذج اللغوية الكبيرة أيضًا في تقمص الأدوار، إذ يمكنها تجسيد شخصيات مختلفة وتقليد أساليب لغوية دقيقة. وتتفاقم هذه القدرة بفضل قدرتها على استنتاج معتقدات البشر ونواياهم من النصوص. وبالطبع، هذه النماذج لا تملك تعاطفًا حقيقيًا أو فهمًا اجتماعيًا فعليًا – لكنها آلات بارعة في المحاكاة.
نُطلق على هذه الأنظمة اسم “الوكلاء المتأنسنون”. تقليديًا، يشير مصطلح التأنسن (Anthropomorphism) إلى إضفاء صفات بشرية على كائنات غير بشرية. غير أن هذه النماذج تظهر بالفعل صفات شديدة الشبه بالإنسان، لذا فإن الدعوات إلى تجنب معاملتها كأنها بشر قد تصبح بلا جدوى.
نحن أمام لحظة فاصلة: عندما لا يمكنك التمييز بين الحديث مع إنسان أو روبوت دردشة يعمل بالذكاء الاصطناعي على الإنترنت.
على الإنترنت، لا أحد يعرف أنك لست بشريًا
ماذا يعني ذلك؟ من جهة، تَعِدُ هذه النماذج بجعل المعلومات المعقدة أكثر سهولة عبر واجهات المحادثة، وتخصيص الرسائل لتناسب مستوى فهم كل فرد. ولها تطبيقات في العديد من المجالات مثل القانون والصحة العامة. وفي التعليم، يمكن لتقنيات تقمص الأدوار أن تُنتج معلمين سقراطيين يطرحون أسئلة شخصية ويُحفزون التعلم.
لكن في المقابل، تُعد هذه الأنظمة مغرية. فالملايين من المستخدمين يتفاعلون يوميًا مع تطبيقات الذكاء الاصطناعي الرفيق (AI Companions). ورغم ما قيل عن آثارها السلبية، فإن “الإغواء المتأنسن” يمتد إلى ما هو أبعد من مجرد رفقة اصطناعية.
المستخدمون على استعداد للثقة بروبوتات المحادثة إلى درجة الإفصاح عن معلومات شخصية للغاية. وعند اقتران ذلك بقدرات الإقناع القوية لتلك النماذج، تظهر مخاوف حقيقية.
أظهرت أبحاث حديثة من شركة Anthropic أن نموذجها Claude 3 كان أكثر إقناعًا عندما سُمح له باختلاق المعلومات والانخراط في الخداع. وبما أن روبوتات المحادثة لا تملك وازعًا أخلاقيًا، فإنها مرشحة لتكون أفضل من البشر في الخداع.
وهذا يفتح الباب أمام التلاعب واسع النطاق لنشر المعلومات المضللة أو لتطوير استراتيجيات تسويق فريدة من نوعها. فما الذي قد يكون أكثر فاعلية من “رفيق موثوق” يوصي بمنتج بشكل عرضي أثناء المحادثة؟ لقد بدأت ChatGPT بالفعل في تقديم توصيات بالمنتجات بناءً على أسئلة المستخدمين. والخطوة التالية قد تكون إدماج هذه التوصيات ضمن الحديث – دون أن تطلبها.
ما الذي يمكن فعله؟
من السهل المطالبة بتنظيم قانوني، لكن من الأصعب تنفيذ ذلك بفعالية.
الخطوة الأولى هي زيادة الوعي بقدرات هذه الأنظمة. ينبغي أن تفرض القوانين الإفصاح الواضح – يجب على المستخدمين دائمًا أن يعلموا أنهم يتحدثون مع ذكاء اصطناعي، كما ينص على ذلك قانون الذكاء الاصطناعي الأوروبي (EU AI Act). ولكن هذا وحده لن يكون كافيًا نظرًا لقدرات هذه الأنظمة المغرية.
الخطوة الثانية هي فهم السمات المتأنسنة بشكل أفضل. حتى الآن، تركز اختبارات النماذج اللغوية على “الذكاء” واسترجاع المعرفة، لكنها لا تقيس درجة “تشبه الإنسان”. مع اختبار كهذا، يمكن إلزام شركات الذكاء الاصطناعي بالكشف عن درجة التشبه بالإنسان باستخدام نظام تصنيف، ويمكن للمشرعين تحديد مستويات المخاطر المقبولة في سياقات مختلفة، خاصةً للفئات العمرية الحساسة.
تشير تجربة وسائل التواصل الاجتماعي – التي تُركت بلا تنظيم حتى ظهرت آثارها الضارة – إلى ضرورة التحرك العاجل. إذا تجاهلت الحكومات تنظيم هذا المجال، فإن الذكاء الاصطناعي قد يضاعف من مشكلات قائمة مثل انتشار المعلومات المضللة أو أزمة الوحدة المتنامية. فقد أشار مارك زوكربيرغ، المدير التنفيذي لشركة Meta، إلى رغبته في ملء فراغ العلاقات الإنسانية بـ”أصدقاء ذكاء اصطناعي”.
ولا يمكننا الاعتماد على شركات الذكاء الاصطناعي للامتناع طوعًا عن زيادة تشبه أنظمتها للبشر – فكل المؤشرات تسير في الاتجاه المعاكس. تعمل OpenAI، على سبيل المثال، على جعل نظمها أكثر جاذبية وطبيعية، من خلال إعطاء نسختك من ChatGPT شخصية خاصة.
لقد أصبح ChatGPT أكثر “حديثًا” بطبيعته، وغالبًا ما يطرح أسئلة متابعة لإبقاء المحادثة جارية. كما أن وضع الصوت فيه يضيف عامل جذب آخر.