تخفّض Anthropic التزاماتها الأساسية المتعلقة بسلامة وأمان نماذج الذكاء الاصطناعي التي كانت تروّج لها كخيار أكثر حذرًا وأمانًا في السوق.
يظهر التراجع في سياسة الشركة نتيجة ضغوط تنافسية وتجارية تدفعها للإسراع بنشر تقنياتها وتوسيع استخدامها في قطاعات كانت محظورة سابقًا، ما يثير تساؤلات حول التوازن بين الابتكار والمسؤولية.
الصراع حول مشاريع حوارية
تشير تقارير WSJ إلى أن التراجع شمل تخفيف القيود على استخدام تقنيات Anthropic من قبل جهات معيّنة، وهو أمر تزامن مع تلقي الشركة إنذارات نهائية من جهات حكومية ودفاعية أمريكية حول ضرورة السماح باستخدام أدواتها في مشاريع حيوية، وهو ما يعتبر تنازلاً لضمان الفوز بعقود ضخمة.
يعكس ذلك سياقًا أوسع من المعضلة الأخلاقية التي تواجه شركات الذكاء الاصطناعي اليوم؛ فبين مبادئ صارمة لمنع خروج التكنولوجيا عن سيطرة السوق واحتياجات الأمن القومي، تجد الشركات الحذرة نفسها أمام خيار إعادة تقييم خطوطها الحمراء لضمان البقاء في مقدمة المشهد.
الضغوط التجارية والحكومية
يضطر القطاع التقني إلى تعديل مبادئه التأسيسية لتلبية متطلبات العقود العسكرية والحكومية الكبيرة التي لا يمكن تجاهلها، وتؤدي تخفيض قيود الأمان إلى مخاطر متزايدة ببدء إطلاق نماذج ذكاء اصطناعي قوية دون ضوابط كافية في المستقبل.



