حالة الذكاء الاصطناعي: كيف ستتغير الحروب إلى الأبد

في عصر يتسم بالتطورات التكنولوجية السريعة، أصبح الذكاء الاصطناعي عنصرًا محوريًا في الحروب الحديثة، مما يثير تساؤلات حول الأخلاقيات والسيطرة.
حالة الذكاء الاصطناعي: كيف سيتغير الحرب إلى الأبد
في يوليو 2027، الصين على وشك غزو تايوان. الطائرات المسيرة ذات القدرات الاستهدافية المدعومة بالذكاء الاصطناعي جاهزة للتغلب على دفاعات الجزيرة الجوية، بينما سلسلة من الهجمات الإلكترونية المدمرة التي تم إنشاؤها بواسطة الذكاء الاصطناعي تقطع إمدادات الطاقة والاتصالات الأساسية. في هذه الأثناء، حملة ضخمة من المعلومات المضللة التي نفذتها مزرعة ميمات مدعومة بالذكاء الاصطناعي تنتشر عبر وسائل التواصل الاجتماعي العالمية، مما يخفف من الصرخات ضد عدوان بكين.
مخاطر الذكاء الاصطناعي في الحروب
تثير سيناريوهات مثل هذه رعبًا ديستوبياً في النقاش حول استخدام الذكاء الاصطناعي في الحروب. يأمل القادة العسكريون في الحصول على قوة معززة رقميًا تكون أسرع وأكثر دقة من القتال الذي يقوده البشر. لكن هناك مخاوف من أنه مع تولي الذكاء الاصطناعي دورًا مركزيًا متزايدًا، سيفقد هؤلاء القادة السيطرة على صراع يتصاعد بسرعة كبيرة ويفتقر إلى الإشراف الأخلاقي أو القانوني. حذر هنري كيسنجر، وزير الخارجية الأمريكي السابق، في سنواته الأخيرة من الكارثة القادمة للحرب المدفوعة بالذكاء الاصطناعي.
أهمية التنظيم في عصر الذكاء الاصطناعي
يعتبر فهم هذه المخاطر والتخفيف منها أولوية عسكرية – يمكن أن يطلق عليها البعض “لحظة أوبنهايمر” – لعصرنا. هناك توافق ناشئ في الغرب على أن القرارات المتعلقة بنشر الأسلحة النووية يجب ألا تُفوض إلى الذكاء الاصطناعي. وقد ذهب الأمين العام للأمم المتحدة أنطونيو غوتيريش إلى أبعد من ذلك، داعيًا إلى حظر كامل على أنظمة الأسلحة الفتاكة المستقلة تمامًا. من الضروري أن يتماشى التنظيم مع التكنولوجيا المتطورة. ولكن في خضم الحماس المستند إلى الخيال العلمي، من السهل فقدان التركيز على ما هو ممكن بالفعل. كما يشير الباحثون في مركز بلفر بجامعة هارفارد، غالبًا ما يبالغ المتفائلون بالذكاء الاصطناعي في تقدير التحديات المتعلقة بنشر أنظمة الأسلحة المستقلة تمامًا. من الممكن تمامًا أن تكون قدرات الذكاء الاصطناعي في القتال مبالغًا فيها.
استخدام الذكاء الاصطناعي في العمليات العسكرية
يقترح أنتوني كينغ، مدير معهد الاستراتيجية والأمن في جامعة إكستر وأحد أبرز مؤيدي هذا الرأي، أنه بدلاً من استبدال البشر، سيتم استخدام الذكاء الاصطناعي لتحسين الرؤية العسكرية. حتى لو كان طابع الحرب يتغير والتكنولوجيا عن بُعد تعمل على تحسين أنظمة الأسلحة، يؤكد: “إن الأتمتة الكاملة للحرب نفسها مجرد وهم”.
من بين ثلاث حالات استخدام عسكرية حالية للذكاء الاصطناعي، لا توجد أي منها تتضمن الاستقلال الكامل. يتم تطويره للتخطيط واللوجستيات، والحرب الإلكترونية (في التخريب، والتجسس، والقرصنة، وعمليات المعلومات؛ والأكثر جدلاً – لاستهداف الأسلحة، وهو تطبيق تم استخدامه بالفعل في ساحات القتال في أوكرانيا وغزة. تستخدم قوات كييف برامج ذكاء اصطناعي لتوجيه الطائرات المسيرة القادرة على التهرب من أجهزة التشويش الروسية أثناء اقترابها من المواقع الحساسة. وقد طورت قوات الدفاع الإسرائيلية نظام دعم قرار مدعوم بالذكاء الاصطناعي يعرف باسم “لافندر”، والذي ساعد في تحديد حوالي 37,000 هدف بشري محتمل داخل غزة.
هناك خطر واضح من أن قاعدة بيانات لافندر تعيد إنتاج التحيزات الموجودة في البيانات التي تم تدريبها عليها. لكن الأفراد العسكريين يحملون أيضًا تحيزات. قال أحد ضباط الاستخبارات الإسرائيلية الذي استخدم لافندر إنه يثق أكثر في عدالة “آلية إحصائية” من تلك التي يحملها جندي حزين.
ينكر المتفائلون في التكنولوجيا الذين يصممون أسلحة الذكاء الاصطناعي حتى أن هناك حاجة إلى ضوابط جديدة محددة للتحكم في قدراتهم. يقول كيث دير، ضابط عسكري سابق في المملكة المتحدة والذي يدير الآن شركة التنبؤ الاستراتيجي كاسي AI، إن القوانين الحالية أكثر من كافية: “تأكد من عدم وجود أي شيء في بيانات التدريب قد يتسبب في خروج النظام عن السيطرة… عندما تكون واثقًا، قم بنشره – وأنت، القائد البشري، مسؤول عن أي شيء قد يحدث خطأ”.
مع استمرار تطور الذكاء الاصطناعي، يجب على المجتمع الدولي العمل معًا لضمان استخدامه بشكل مسؤول وآمن في النزاعات العسكرية.




