أثارت تصريحات الجنرال الأميركي وليام هانك تايلور حول استخدام ChatGPT لدعم قرارات إدارية داخل الجيش جدلاً واسعاً في الأوساط العسكرية والتكنولوجية، حيث وصف العلاقة بينه وبين الأداة بأنها قريبة من اتخاذ القرار، وسعى لبناء نماذج تساعد في تحسين عملية الإدارة ضمن قيادته.
هذا التصريح أَثار تساؤلات عميقة حول مدى الاعتماد على خوارزميات تجارية في مواقف حساسة كالقرارات العسكرية، وهل يمكن للخوارزمية أن تتحول من أداة مساعدة إلى حاكم فعلي للقرارات الميدانية.
الذكاء الاصطناعي في المجال العسكري اليوم
تستخدم الدول الجيوش اليوم أنظمة الذكاء الاصطناعي في تحليل كميات هائلة من البيانات الاستخباراتية القادمة من الأقمار الصناعية وأجهزة الاستشعار والطائرات بدون طيار، وتوقع حركات الخصوم ورسم سيناريوهات قتالية في الزمن الحقيقي.
في مراكز القيادة، تُستخدم خوارزميات التعلم العميق لفرز الصور الجوية والتقاط الأنماط الدقيقة التي قد لا تلاحظها العين البشرية، بينما تستخدم نماذج التنبؤ الاحتمالي لتحديد المخاطر ومسارات الإمداد المثلى.
كما يوجد مفهوم “Agentic AI” وهو جيل من تقنيات الذكاء الاصطناعي القادرة على متابعة مخرجاتها ذاتياً، والتنسيق بين مهام متوازية، واتخاذ قرارات جزئية بشكل مستقل ضمن حدود معينة، بهدف تقليل زمن الاستجابة في بيئات تتطلب قرارات فورية.
ومن أبرز الأمثلة على الدمج بين AI والقرار الميداني مشروع Maven التابع للبنتاجون، الذي أُطلق عام 2017 لتحليل الصور الملتقطة عبر الطائرات بدون طيار باستخدام خوارزميات تعلم آلي تتعرّف على الأهداف وتصنّفها، وهو الدمج الذي أشعل جدلاً أخلاقياً حين استقال عدد من مهندسي جوجل احتجاجاً على تورط الشركة في دعم المشروع.
التحديات والمخاطر
يُحذر خبراء من “إغراء الاعتماد على الخوارزمية” الذي يدفع صانعي القرار إلى الثقة بمخرجات الأنظمة أكثر من اللازم في مواقف تتطلب حكمًا بشرياً فائقاً، وهو نقاش تبرز فيه Geneva Academy أن الاستخدام العسكري للذكاء الاصطناعي يخلق مخاطر هيكلية تتعلق بتحيز البيانات وتكرار أخطاء من نمط جديد، إضافة إلى وجود فراغ في المسؤولية إذا لم يُحدَّد تسلسل قانوني واضح للمسؤوليات.
كما أوضحت Geneva Academy أن إدماج الذكاء الاصطناعي في عمليات القيادة والسيطرة يمكن أن يترك فراغاً في المساءلة، ما يضعف آليات المحاسبة في حال وقوع أخطاء أو انخالات. وعلى صعيد أوسع، أشار المجتمع الدولي إلى أن هذه الأنظمة لا تملك فهم النية أو الديناميات النفسية للمقاتلين والمدنيين، مما يجعلها أداة تحليل لا يمكنها استبدال الحدس الإنساني والخبرة الميدانية.
وتزداد المخاطر مع وجود ثغرات أمنية مثل هجمات “prompt injection” التي قد تسمح بتوجيه مخرجات النماذج إلى تنفيذ أوامر غير مقصودة، أو كشف معلومات عملياتية، حتى لو اقتصر دورها على المساعدة.
وحذر خبراء عسكريون من الاعتماد على هذه النماذج، فكما قال الجنرال جاك شانهان من مركز الذكاء الاصطناعي المشترك بالبنتاجون: يجب أن تُستخدم أدوات مثل ChatGPT “بحذر شديد” وأن المحللين الاستخباريين سيظلون يحجمون عن الاعتماد على هذه الأنظمة بدون شكوك، مع التنبيه إلى مشكلة “الهلوسة” التي قد تولد معلومات غير صحيحة.
وتشير منظمات مثل Arms Control Association إلى أن تزايد تقنيات توليد النصوص في المجال العسكري قد يؤدي إلى قرارات متسرعة وخاطئة إن لم تُضاف آليات تحقق بشرية صارمة قبل التنفيذ، وهو ما ناقشته جلسة نقاشية في عام 2023 من قبل رابطة الجيش الأميركي.
خلاصة وأفق النقاش
يظل التوازن مطلوباً بين الاستفادة من قدرات AI في التحليل والتخطيط والإسناد الإداري، وبين الحفاظ على مسؤولية بشرية واضحة وحدود أخلاقية وقانونية تحمي الأمن والسلم الدوليين. فبقدر ما تتيح النماذج اللغوية سرعة في تحليل النصوص وتوليد التوصيات، يبقى فهم السياق الحربي والنية الإنسانية أموراً لا يمكن اختزالها في أداة رقمية فقط.
