أعلنت OpenAI عن إبرامها اتفاقاً مع وزارة الدفاع الأميركية يفرض ضوابط أكثر صرامة من أي اتفاق سابق لنشر تقنيات الذكاء الاصطناعي المصنف، وورد ضمنه الإشارة إلى وجود صفقات مع شركات كبرى مثل Anthropic كجزء من الإطار التنظيمي الجديد.
وحدد الاتفاق ثلاث خطوط حمراء رئيسية هي ألا تستخدم تقنيات OpenAI للمراقبة الجماعية الداخلية، أو لتوجيه أنظمة أسلحة مستقلة، أو لاتخاذ قرارات آلية عالية المخاطر.
وأكدت الشركة أن النهج المتبع في الاتفاق يعتمد على عدة مستويات من الحماية، بما في ذلك الحفاظ على السيطرة الكاملة على أنظمة السلامة، والنشر عبر السحابة، وإشراك موظفي OpenAI، إضافة إلى وجود حماية تعاقدية قوية.
وأضاف البيان أن البنتاجون أبرم خلال العام الماضي عقوداً تصل قيمتها إلى نحو 200 مليون دولار مع كبرى مختبرات الذكاء الاصطناعي، من بينها Anthropic وOpenAI وجوجل، بهدف الحفاظ على مرونة كاملة في الاستخدام الدفاعي وعدم التقييد بالتحذيرات التي قد تصدرها الشركات حول استخدام الذكاء الاصطناعي في الأسلحة.
وحذرت OpenAI من أن أي خرق للعقد من قبل الحكومة الأميركية قد يؤدي إلى إنهاء الصفقة، لكنها أكدت أنها لا تتوقع حدوث ذلك، كما أشارت إلى أن Anthropic لا ينبغي اعتبارها خطراً على سلسلة التوريد، موضحة موقفها للحكومة بوضوح.



