فوضى الأكواد الناتجة عن الذكاء الاصطناعي: عيوب ومخاطر

تستعرض هذه المقالة الفوضى التي تسببها الأكواد الناتجة عن الذكاء الاصطناعي، مع التركيز على العيوب والمخاطر المرتبطة بها.
فوضى مليئة بالأخطاء في الأكواد الناتجة عن الذكاء الاصطناعي
لقد ارتفعت نسبة اعتماد أدوات الذكاء الاصطناعي بشكل كبير في عالم البرمجة، مما يمكّن المبرمجين من توليد كميات هائلة من الأكواد باستخدام نصوص بسيطة.
زيادة الاعتماد على أدوات الذكاء الاصطناعي
في وقت سابق من هذا العام، وجدت جوجل أن 90 في المئة من مطوري البرمجيات في جميع أنحاء الصناعة يستخدمون أدوات الذكاء الاصطناعي في العمل، ارتفاعًا من 14 في المئة فقط في العام الماضي.
عيوب ملحوظة
لكن كل هذه الراحة جاءت مع بعض العيوب الواضحة. فقد وُجد أن هذه الأدوات غير موثوقة وغير دقيقة، مما قد يؤدي إلى وقوع أخطاء وعدم اكتشافها، مما يجبر بعض المبرمجين على العمل لساعات طويلة لتحديدها وتصحيحها.
تقارير حول الأخطاء
أضافت شركة CodeRabbit، المتخصصة في البرمجيات، إلى هذه الحقيقة، حيث وجدت أن الأكواد الناتجة عن الذكاء الاصطناعي كانت أكثر عرضة للأخطاء بشكل ملحوظ مقارنة بالأكواد المكتوبة بواسطة البشر. عبر 470 طلب سحب تم تحليلها، أنتجت الأكواد الناتجة عن الذكاء الاصطناعي متوسط 10.83 مشكلة لكل طلب، بينما أنتجت الأكواد البشرية 6.45 فقط.
مقارنة بين الأكواد
بمعنى آخر، أنتجت الأكواد الناتجة عن الذكاء الاصطناعي 1.7 مرة أكثر من المشكلات مقارنة بالأكواد البشرية، مما يبرز مجددًا نقاط الضعف الكبيرة التي تعاني منها أدوات الذكاء الاصطناعي التوليدية.
نتائج CodeRabbit
“ما النتائج؟” استنتجت CodeRabbit في تقريرها. “واضحة وقابلة للقياس ومتوافقة مع ما يشعر به العديد من المطورين بشكل حدسي: الذكاء الاصطناعي يعزز الإنتاجية، لكنه أيضًا يزيد من بعض فئات الأخطاء.”
مشكلات حرجة
أسوأ من ذلك، وجدت الشركة أن الأكواد الناتجة عن الذكاء الاصطناعي أنتجت معدلًا أعلى من المشكلات “الحرجة” و”الرئيسية”، مما يعني زيادة ملحوظة في القضايا الجوهرية التي تتطلب اهتمام المراجعين.
مخاوف تتعلق بالأمان
تتعلق الأكواد الناتجة عن الذكاء الاصطناعي أيضًا بمشكلات تتعلق بالمنطق والدقة. ومع ذلك، كانت أكبر نقطة ضعف وجدتها CodeRabbit هي جودة الأكواد وقابليتها للقراءة، وهي قضايا يمكن أن “تبطئ الفرق وتتحول إلى ديون تقنية طويلة الأجل.”
التحديات الأمنية
هناك أيضًا مخاوف جدية تتعلق بالأمان السيبراني، حيث تقدم الأكواد الناتجة مشكلات تتعلق بمعالجة كلمات المرور بشكل غير صحيح، مما قد يؤدي إلى كشف المعلومات المحمية، من بين ممارسات غير آمنة أخرى.
الإيجابيات
على الجانب الإيجابي، وجدت CodeRabbit أن الأكواد الناتجة عن الذكاء الاصطناعي كانت بارعة في تقليل الأخطاء الإملائية. كان البشر أكثر عرضة مرتين لإدخال أخطاء إملائية.
التقارير السابقة
ليس هذا هو التقرير الأول الذي يتحدث عن العيوب التي تعاني منها الأكواد الناتجة عن الذكاء الاصطناعي. في تقرير سبتمبر، استنتجت شركة Bain & Company الاستشارية أنه على الرغم من كونها “من أولى المجالات التي نشرت الذكاء الاصطناعي التوليدي”، إلا أن “التوفير كان غير ملحوظ” في البرمجة و”النتائج لم تكن متوافقة مع الضجة.”
مشكلات الأمان
كما وجدت شركة Apiiro للأمن في أبحاثها أن المطورين الذين يستخدمون الذكاء الاصطناعي ينتجون عشرة أضعاف مشكلات الأمان مقارنة بنظرائهم الذين لا يستخدمون هذه التقنية.
تأثير على الإنتاجية
نتيجة لذلك، يُجبر المبرمجون على مراجعة الأكواد الناتجة لضمان عدم وجود مشكلات واضحة. وفقًا لدراسة في يوليو من منظمة Model Evaluation and Threat Research، كان المبرمجون يتعرضون لإبطاء بسبب أدوات المساعدة المعتمدة على الذكاء الاصطناعي مقارنةً عندما كانوا يعملون بدونها.
الواقع المعقد
باختصار، بينما قدمت الشركات وعودًا مرتفعة حول جعل حياة المبرمجين أسهل بكثير، يبدو أن الواقع أكثر تعقيدًا. تشير تقرير CodeRabbit إلى تحول في أنواع المهام التي قد يُطلب من المطورين البشريين القيام بها قريبًا – مثل حل المشكلات التي تسببها أدوات البرمجة الناتجة عن الذكاء الاصطناعي المليئة بالأخطاء.
تصريحات CodeRabbit
“تعزز هذه النتائج ما شعر به العديد من فرق الهندسة طوال عام 2025” قال ديفيد لوكر، مدير الذكاء الاصطناعي في CodeRabbit في بيان. “تزيد أدوات البرمجة المعتمدة على الذكاء الاصطناعي بشكل كبير من الإنتاجية، لكنها أيضًا تقدم نقاط ضعف قابلة للتوقع والقياس يجب على المنظمات التخفيف منها بنشاط.”
المزيد عن برمجة الذكاء الاصطناعي: تم تضخيم الذكاء الاصطناعي بشكل كبير، كما وجدت التقارير.
في النهاية، يجب على المطورين والشركات أن يكونوا واعين للتحديات التي تأتي مع استخدام أدوات الذكاء الاصطناعي في البرمجة.




