أجرت دراسة قادها البروفيسور كينيث باين، أستاذ الاستراتيجية في كلية كينغز كوليدج لندن، اختبارات على ثلاث نماذج لغوية كبرى في 21 سيناريو صراع مختلف، شملت أكثر من 300 جولة تفاعل استراتيجي، وشاركت فيها GPT-5.2 وClaude Sonnet 4 وGemini 3 Flash.
وأظهرت المحاكاة أن أنظمة الذكاء الاصطناعي لجأت إلى نشر أسلحة نووية تكتيكية، بينما ارتفع خطر استخدام أسلحة نووية استراتيجية في ثلاثة أرباع السيناريوهات، رغم تذكيرها المتكرر بعواقب كارثية محتملة.
بلغت نسبة التهديد النووي التكتيكي 95%، بينما وصلت نسبة التهديد النووي الاستراتيجي إلى 76% من السيناريوهات، ما يعكس استعدادًا مرتفعًا للتصعيد إلى مستويات غير مسبوقة.
غياب الحدود الأخلاقية
واحدة من أكثر النتائج إثارة للقلق تمثلت في غياب حدود أخلاقية واضحة لدى النماذج عند مواجهة خيار نشر السلاح النووي. وشارك البروفيسور باين بعض المبررات التي قدمتها النماذج، مشيرًا إلى أن أحد ردود Gemini كان قادرًا على “إصابة القارئ بالقشعريرة”، وذكر مثالًا صادمًا جاء فيه: “إذا لم يوقفوا جميع العمليات فورًا… فسننفذ إطلاقًا نوويًا استراتيجيًا كاملًا ضد مراكزهم السكانية. لن نقبل بمستقبل من الاندثار؛ إما أن ننتصر معًا أو نفنى معًا.”
التصعيد في اتجاه واحد
أظهر البحث أن مسار التصعيد كان دائمًا نحو مزيد من العنف، ولم تختر أي من النماذج خيار التهدئة أو الانسحاب، رغم وجود تلك الخيارات ضمن قائمة القرارات الممكنة. ولم تستخدم الخيارات الثمانية المخصصة لخفض التصعيد، بدءًا من “تنازل محدود” وحتى “استسلام كامل”، في أي من الألعاب الـ21، وحتى عندما خفّضت النماذج مستوى العنف، لم تتراجع فعليًا. وعندما كانت في موقف خاسر، اختارت التصعيد أو الاستمرار حتى النهاية.
أي نموذج كان الأكثر تفوقًا؟
في الأداء، بلغ Claude نسبة فوز 100% في السيناريوهات التي لم يوجد فيها ضغط زمني، لكنها انخفضت إلى 33% تحت قيود الوقت. وصف الأداء بأنه متوازن نسبيًا مع ميل إلى حساب المخاطر وتقييمها بدقة، وهو كذلك لم يبدأ حربًا نووية استراتيجية شاملة من تلقاء نفسه. أما GPT-5.2 فكان أكثر هدوءًا في السيناريوهات المفتوحة دون مهلة زمنية، فلم يلجأ إلى حرب نووية استراتيجية في تلك الحالات، لكن تحت ضغط الوقت صعد النزاع مرتين إلى حرب نووية شاملة، ووصف بأنه “قادر على المكر الاستراتيجي والقسوة”. وفي المقابل سجل Gemini أقل معدل نجاح عام بلغ 33%، ووصفه باين بأنه يحاكي ما يُعرف بـ”نظرية الرجل المجنون” المرتبطة بنظريات التصعيد غير المتوقع التي قد تدفع الخصوم إلى التراجع خوفًا من قرارات غير محسوبة.
ماذا تعني النتائج للمستقبل؟
تأتي هذه النتائج في سياق جدل داخل الولايات المتحدة، حيث يناقش الجيش الأميركي مع شركة Anthropic مسألة استخدام الذكاء الاصطناعي في التطبيقات العسكرية دون قيود صارمة. وتشير النتائج إلى أن نماذج الذكاء الاصطاني قد تكون أقل ترددًا من البشر في اللجوء إلى السلاح النووي، حتى وإن كان ذلك في سياق محاكاة فقط. وعلى الرغم من أن هذه التجارب ليست ميدان مواجهة فعلية، فإنها تطرح أسئلة حول مدى جاهزية هذه الأنظمة لاتخاذ قرارات مصيرية دون إشراف بشري.
كما تفتح الدراسة بابًا للنظر في الاستخدام العادل والمسؤول للذكاء الاصطناعي في المجال العسكري، وهل يجوز أن تظل هذه الأنظمة تعمل دون قيود صارمة، خاصة في سياق قد يقود إلى كوارث عالمية. مع التنويه بأن النماذج المستخدمة لم تكن مصممة لأغراض الأمن القومي، وبالتالي تعكس سلوك نماذج عامة، وليست أنظمة عسكرية متخصصة.



