تقنيات المستقبل

القضاة المتبنون مبكرًا الذين يستخدمون الذكاء الاصطناعي

يبدو أن غودارد عالق في نفس المأزق الذي خلقه ازدهار الذكاء الاصطناعي للعديد منا. بعد ثلاث سنوات، قامت الشركات ببناء أدوات تبدو سلسة وتشبه البشر لدرجة أنها تخفي المشاكل المعقدة التي تكمن تحت السطح—إجابات تبدو جيدة ولكنها خاطئة، نماذج تم تدريبها لتكون جيدة في كل شيء ولكنها ليست مثالية في شيء، وخطر تسرب محادثاتك معها إلى الإنترنت. في كل مرة نستخدمها، نراهن على أن الوقت الذي تم توفيره سيفوق المخاطر، ونثق في قدرتنا على اكتشاف الأخطاء قبل أن تصبح ذات أهمية. بالنسبة للقضاة، فإن المخاطر مرتفعة للغاية: إذا فقدوا هذا الرهان، فإنهم يواجهون عواقب عامة جداً، ويمكن أن تكون تأثيرات مثل هذه الأخطاء على الأشخاص الذين يخدمونهم دائمة.

يقول غودارد: “لن أكون القاضي الذي يستشهد بقضايا وأوامر متخيلة، إنه أمر محرج حقًا، محرج جدًا على الصعيد المهني.”

ومع ذلك، لا يرغب بعض القضاة في أن يتخلفوا عن الركب في عصر الذكاء الاصطناعي. مع اقتراح بعض الأشخاص في قطاع الذكاء الاصطناعي أن الموضوعية والقدرة على التفكير المنطقي للنماذج يمكن أن تجعلها قضاة أفضل من البشر القابلين للخطأ، قد يدفع ذلك بعض القضاة إلى التفكير بأن التخلف عن الركب يشكل خطرًا أكبر من التقدم كثيرًا.

أزمة في انتظار الحدوث

أثارت مخاطر التبني المبكر إنذارات لدى القاضي سكوت شليغيل، الذي يعمل في محكمة الاستئناف الخامسة في لويزيانا. لقد كتب شليغيل لفترة طويلة عن الدور المفيد الذي يمكن أن تلعبه التكنولوجيا في تحديث نظام المحاكم، لكنه حذر من أن الأخطاء الناتجة عن الذكاء الاصطناعي في أحكام القضاة تشير إلى “أزمة في انتظار الحدوث”، أزمة ستفوق مشكلة تقديم المحامين لملفات تحتوي على قضايا مختلقة.

يمكن أن يتعرض المحامون الذين يرتكبون أخطاء للعقوبات، وقد يتم رفض طلباتهم، أو فقدان القضايا عندما يكتشف الطرف الآخر الأخطاء ويشير إليها. يقول: “عندما يرتكب القاضي خطأ، فهذا هو القانون، لا أستطيع أن أقول بعد شهر أو شهرين: ‘عذرًا، آسف’ وأعيد نفسي. لا تعمل الأمور بهذه الطريقة.”

اعتبر قضايا حضانة الأطفال أو إجراءات الكفالة، يقول شليغيل: “هناك عواقب كبيرة عندما يعتمد القاضي على الذكاء الاصطناعي لاتخاذ القرار”، خاصة إذا كانت الاستشهادات التي يعتمد عليها القرار مختلقة أو غير صحيحة.

هذه ليست نظرية. في يونيو، أصدر قاضي محكمة استئناف في جورجيا أمرًا اعتمد جزئيًا على قضايا مختلقة قدمها أحد الأطراف، وهو خطأ لم يُكتشف. في يوليو، سحب قاضٍ فيدرالي في نيوجيرسي رأيًا بعد أن اشتكى المحامون من أنه يحتوي أيضًا على تخيلات.

على عكس المحامين، الذين يمكن أن يُطلب منهم من قبل المحكمة توضيح سبب وجود أخطاء في ملفاتهم، لا يتعين على القضاة إظهار الكثير من الشفافية، ولا يوجد سبب للاعتقاد أنهم سيفعلون ذلك طواعية. في 4 أغسطس، اضطر قاضٍ فيدرالي في ميسيسيبي إلى إصدار قرار جديد في قضية حقوق مدنية بعد أن وُجد أن القرار الأصلي يحتوي على أسماء غير صحيحة وأخطاء جسيمة. لم يشرح القاضي بالكامل ما الذي أدى إلى الأخطاء حتى بعد أن طلبت الدولة منه ذلك. كتب القاضي: “لا حاجة لمزيد من التوضيح.”

يمكن أن تؤدي هذه الأخطاء إلى تقويض ثقة الجمهور في شرعية المحاكم، كما يقول شليغيل. يمكن أن توفر بعض التطبيقات الضيقة والمراقبة للذكاء الاصطناعي—مثل تلخيص الشهادات، والحصول على تعليقات سريعة على الكتابة—وقتًا، ويمكن أن تحقق نتائج جيدة إذا تعامل القضاة مع العمل كعمل مساعد مبتدئ، يتحققون منه بدقة. لكن معظم وظيفة القاضي تتعلق بما يسميه مشكلة الصفحة البيضاء: أنت تترأس قضية معقدة أمامك صفحة فارغة، مضطرًا لاتخاذ قرارات صعبة. التفكير في تلك القرارات، كما يقول، هو بالفعل عمل القاضي. الحصول على مساعدة في المسودة الأولى من الذكاء الاصطناعي يقوض هذا الغرض.

“إذا كنت تتخذ قرارًا بشأن من يحصل على الأطفال في عطلة نهاية الأسبوع، واكتشف شخص ما أنك استخدمت Grok وكان يجب عليك استخدام Gemini أو ChatGPT—أنت تعلم، هذه ليست نظام العدالة.”

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى