بدأت الخلافات بين Anthropic ووزارة الدفاع الأمريكية تتبلور حول حدود الاستخدام الأخلاقي لتقنيات الذكاء الاصطناعي في التطبيقات العسكرية والمراقبة الجماعية، مع إصرار Anthropic على الحفاظ على خطوطها الحمراء الأخلاقية رغم الضغوط الحكومية.
خلفية الصراع
وفقًا للتقارير، يسعى وزير الدفاع Pete Hegseth إلى تعديل العقود القائمة مع شركات الذكاء الاصطناعي بمنح الجيش صلاحيات أوسع للوصول إلى تقنيات هذه الشركات، في حين وافقت OpenAI وxAI على الشروط الجديدة، بينما رفضت Anthropic التخلي عن خطوطها الأخلاقية الحمراء.
موقف أنثروبيك
أكد الرئيس التنفيذي Dario Amodei أن الشركة لن تسمح باستخدام تقنياتها للمراقبة الجماعية للمواطنين الأميركيين أو لتوفير الأسلحة ذاتية التشغيل، معتبراً أن التهديدات لا تغيّر موقفهم وتعبّر عن التزامهم بمعايير أخلاقية حتى على حساب خسائر محتملة في العقود الحكومية الكبيرة.
الإجراءات الحكومية
في خطوة تصعيدية، صُنِّفت Anthropic من قبل البنتاغون كخطر على سلسلة التوريد؛ وهو تصنيف يُستخدم عادة للتحذير من تهديدات أمن قومي محتملة، وقد يؤثر في عقود الشركة مع الحكومة الفيدرالية ويعترض استمرار تقديم خدماتها للبنتاغون.
ردود فعل الصناعة
تركّزت الردود على المخاطر الأخلاقية المحتملة، حيث أعرب موظفو شركات تقنية تعمل مع البنتاغون عن قلقهم من احتمال استخدام الذكاء الاصطناعي في المراقبة الجماعية والأسلحة الفتاكة، معتبرين أن الهدف الأصلي للتقنية هو تحسين حياة الناس لا التحكم أو القتل. ويعكس النزاع نموذجًا حيًا للصراع بين الأخلاقيات والتمويل العسكري في مجال الذكاء الاصطناعي، مع تعويل على أن موقف Anthropic يشكل معيارًا أخلاقيًا محتملًا لشركات التقنية في التعامل مع العقود العسكرية والتهديدات الحكومية.



