هل تهدد أدوات الذكاء الاصطناعي مصداقية القضاء الأمريكي؟ قضية طلاق تكشف الخطر

في سياق متسارع، أصبحت نماذج اللغة الكبيرة (LLMs) تُستخدم في مجالات متعددة، من الغش في المؤسسات التعليمية إلى نشر الأخبار المضللة. اليوم، بدأت هذه الأدوات تتسلل إلى النظام القضائي، محدثة موجة من الإيداعات القانونية الزائفة، ما يُشكل تهديدًا جديدًا لنظام عدلي يعاني أساسًا من ضغط القضايا وتكدس الملفات.
تقرير حديث من “Ars Technica” سلط الضوء على حكم محكمة استئناف في ولاية جورجيا، كشف عن خطر متزايد يتمثل في تسلل “هلوسات الذكاء الاصطناعي” إلى ملفات القضايا، بل وتأثيرها المحتمل على الأحكام القضائية نفسها. ففي نزاع طلاق، قدم محامي الزوج مسودة قرار قضائي تضمنت إشارات إلى قضايا قانونية غير موجودة – يُرجح أن تكون من اختراع أدوات توليد النصوص مثل ChatGPT. وقد وافقت المحكمة الابتدائية على المستند وأصدرت الحكم لصالح الزوج.
لكن عندما تقدمت الزوجة بالاستئناف، كُشف أن تلك الإشارات القضائية كانت مختلقة. وعلى إثر ذلك، ألغت لجنة الاستئناف القرار، مشيرة إلى أن المراجع الوهمية قوضت قدرة المحكمة على مراجعة الحكم الأصلي. ووصف القاضي جيف واتكنز هذه المراجع بأنها “هلوسات محتملة من الذكاء الاصطناعي”، وفرض غرامة بقيمة 2,500 دولار على محامي الزوج.
ورغم أن الحادثة تبدو معزولة، إلا أن حالة مماثلة في فبراير أدت إلى تغريم محامٍ 15,000 دولار. ويحذر خبراء القانون من أن هذه الحوادث قد تصبح شائعة. فأدوات الذكاء الاصطناعي التوليدي معروفة بإنتاج معلومات وهمية بثقة عالية – وهي ظاهرة تُعرف بـ”الهلوسة”. ومع تزايد سهولة الوصول إلى هذه الأدوات سواء من قبل محامين مرهقين أو أشخاص يمثلون أنفسهم قانونيًا، يتوقع الخبراء أن يواجه القضاة عددًا متزايدًا من الإيداعات المليئة بالقضايا المزيفة، والسوابق القانونية الوهمية، والتبريرات القانونية المشوشة التي تبدو للوهلة الأولى منطقية.
تتفاقم هذه المشكلة في ظل نظام قضائي يعاني من نقص في الموارد. ففي العديد من الولايات القضائية، يُوقّع القضاة على أوامر أعدها المحامون دون مراجعة دقيقة. لكن مع دخول أدوات الذكاء الاصطناعي إلى هذا السياق، أصبح الخطر أكبر.
قال القاضي السابق ومحامي الأخلاقيات القانونية جون براونينغ:
“أستطيع تصور هذا السيناريو في أي محكمة يُثقل كاهلها بعدد هائل من القضايا”، مضيفًا أنه يعتقد أن هذه الأخطاء “مرجحة بشكل مرعب”.
ويحذر براونينغ وآخرون من أن المحاكم، خصوصًا على المستوى الأدنى، غير مستعدة لمواجهة هذه الموجة من الهراء المُولّد آليًا. وحتى الآن، لا تطلب سوى ولايتين فقط – ميشيغان ووست فرجينيا – من القضاة امتلاك حد أدنى من الكفاءة التقنية فيما يخص الذكاء الاصطناعي. وقد حظر بعض القضاة استخدام الإيداعات الناتجة عن الذكاء الاصطناعي تمامًا، أو فرضوا الإفصاح عن استخدامها، لكن هذه السياسات لا تزال متفرقة وصعبة التطبيق نظرًا لضغط العمل.
المقلق أن الإيداعات الناتجة عن الذكاء الاصطناعي ليست دائمًا سهلة الاكتشاف. إذ غالبًا ما تخترع نماذج اللغة الكبيرة أسماء قضايا واقعية المظهر، واستشهادات مقنعة، ومصطلحات قانونية تبدو رسمية. ومع تطور هذه الأدوات، قد تزول حتى المؤشرات الواضحة مثل أرقام القضايا الوهمية (123456) أو أسماء تقارير المحاكم غير الدقيقة.
يسعى باحثون مثل بيتر هندرسون في مختبر Polaris بجامعة برينستون إلى تطوير أدوات لرصد تأثير الذكاء الاصطناعي على الملفات القانونية، كما يدعون لإنشاء مستودعات مفتوحة للسوابق القانونية لتسهيل التحقق. واقترح البعض أنظمة مكافآت لمن يكتشف القضايا الوهمية قبل اعتمادها.
في الوقت الحالي، تُمثل قضية الطلاق في جورجيا قصة تحذيرية – ليست فقط عن المحامين المهملين، بل عن نظام قضائي قد يكون منهكًا لدرجة لا تمكنه من رصد استخدام الذكاء الاصطناعي في كل وثيقة قانونية. وكما حذر القاضي واتكنز، فإن استمرار تسلل “هلوسات” الذكاء الاصطناعي إلى السجلات القضائية قد يهدد بثقة الجمهور في العدالة نفسها.