أعلنت وزارة الدفاع الأمريكية عن خطوة تراجعية في نزاعها مع شركات الذكاء الاصطناعي، حيث أبلغت كبار قادتها بإمكانية استمرار استخدام أدوات Anthropic لمدة تصل إلى ستة أشهر إذا اعتُبرت ضرورية للأمن القومي، مع فتح نافذة استثنائية للاستخدامات الأخرى لتجنب تعطل العمليات الحساسة.
تأتي هذه الخطوة بعد فترة من التصعيد غير المسبوق شمل إدراج الشركة ضمن قائمة مخاطر سلسلة التوريد، وهو ما يعكس اعترافًا ضمنيًا بأهمية تقنيات Anthropic وصعوبة استبدالها فورًا دون التأثير على كفاءة الأنظمة الدفاعية.
مذكرة داخلية مسربة
وذكرت تقارير صحفية أن مذكرة داخلية مسربة أشارت إلى توجيهات للبنتاجون بإعطاء الأولوية لإزالة منتجات Anthropic من الأنظمة التي تدعم المهام الحرجة جدًا، مثل الأسلحة النووية، مع إبقاء باب لاستخدامات أخرى قد تستلزم استثناءات خاصة لتفادي توقف العمل.
أسباب الأزمة ومرتكزاتها
تعود الأزمة إلى رفض Anthropic موافقة الحكومة على استخدام نموذجها اللغوي Claude في المراقبة المحلية وتطوير أسلحة ذاتية التشغيل، وهو ما أدى إلى إدراج الشركة في القائمة السوداء ورفع دعاوى قضائية لمنع الحظر، في سياق توتر بين وادي السيليكون والجهات العسكرية حول أخلاقيات الذكاء الاصطناعي.
تأثير القرار على العقود الحكومية
يسمح الاستثناء المحتمل للشركات التقنية بالحفاظ على شراكاتها مع الحكومة الفيدرالية ويمنع انهيار عقود بملايين الدولارات كانت مهددة بالإلغاء الفوري، كما يبرز الحاجة لتوازن بين متطلبات الأمن القومي والمبادئ الأخلاقية التي تتبناها شركات الذكاء الاصطناعي الرائدة في تطوير أنظمتها.



