استخدمت القيادة المركزية الأمريكية أداة كلود من أنثروبيك كجزء من التقييمات الاستخباراتية وتحديد الأهداف ومحاكاة سيناريوهات المعارك، وفقًا لتقرير صحفية وول ستريت جورنال.
وأشار التقرير إلى أن قيادات عسكرية حول العالم، بما فيها القيادة المركزية الأمريكية في الشرق الأوسط، تستخدم هذه الأداة في التقييمات الاستخباراتية وتحديد الأهداف ومحاكاة سيناريوهات المعارك، وسط توتر حول كيفية استخدام الذكاء الاصطناعي في الحروب.
وُصِفت أنثروبيك بأنها تشكل تهديدًا للأمن القومي من قبل مصادر مطلعة، وذلك في سياق نزاع حول سلطات الوصول إلى التقنية وربطها بالأمن القومي.
وأصدر الرئيس ترامب توجيهات إلى جميع الوكالات الفيدرالية بالتوقف الفوري عن استخدام أدوات الذكاء الاصطناعي من أنثروبيك، قائلاً إنها تشكل خطرًا على الأمن القومي، وذلك عقب خلاف حول وصول الجيش إلى التقنية.
وعلى الرغم من هذا التوجيه، نفذت القوات الأمريكية عملية جوية ضد أهداف في إيران باستخدام أنظمة مدعومة من كلود، ما يعكس مدى اندماج الذكاء الاصطناعي في التخطيط والتنفيذ العسكري، دون الكشف عن تفاصيل مدى مشاركة كلود من جانب المسؤولين العسكريين.
خلاف حول استخدام الذكاء الاصطناعي في الأمن القومي
ينبثق الخلاف من رفض أنثروبيك السماح باستخدام نماذجها بشكل غير مقيد في التطبيقات العسكرية، خصوصًا لأغراض مثيرة للجدل مثل الأسلحة ذاتية التشغيل أو قدرات المراقبة الجماعية. وكان البنتاغون قد منح الشركة مهلة للموافقة على شروطه وإلا ستواجه عواقب، بما في ذلك استبعادها من عقود الدفاع.
وقالت أنثروبيك إنها ستطعن في تصنيف الحكومة لها كخطر على سلسلة التوريد، بحجة أن ضماناتها الأخلاقية ضرورية، ومع توقع سقوط الاعتماد على كلود في المستقبل القريب، يتجه المسؤولون أيضًا إلى مزودي خدمات ذكاء اصطناعي آخرين، بما في ذلك OpenAI، لتلبية الاحتياجات العسكرية.
يسلط هذا الوضع الضوء على التوترات المتزايدة حول استخدام الذكاء الاصطناعي في الأمن القومي والعمليات العسكرية، ويثير تساؤلات حول الدور المستقبلي لهذه التكنولوجيا في التخطيط الدفاعي.



