التعديل والضمانات في اتفاق OpenAI والبنتاغون
أعلنت OpenAI تعديل اتفاقها مع وزارة الدفاع الأمريكية لإضافة ضمانات تمنع استخدامها في المراقبة الجماعية للمواطنين الأمريكيين، وجاء ذلك بعد انتقادات واسعة للاتفاق الأصلي عندما انسحبت منافستها أنثروبيك بسبب رفضها شروطاً مشابهة.
يتضمن التعديل بنوداً صريحة تحظر استخدام نماذج الذكاء الاصطناعي للمراقبة الداخلية للأشخاص الأمريكيين، مع الالتزام بالقوانين الفدرالية ذات الصلة، ويُتيح استخدام التقنية لأغراض دفاعية خارجية فقط مع الحفاظ على الحدود الأخلاقية.
في سياق تصعيد عسكري في الشرق الأوسط، يسعى البنتاجون لدمج الذكاء الاصطناعي في عملياته، مما يعزز الحاجة إلى إطار يوازن بين الأمان والكشف عن الحدود الأخلاقية عند تطبيق التقنية ضمن نطاق دفاعي خارجي.
التوتر بين الشركات والحكومة
رفضت أنثروبيك الاتفاق بسبب مخاوف من احتمال استخدام تقنيتها في أسلحة ذاتية أو مراقبة واسعة، ما أدى إلى استبعادها من بعض العقود الحكومية.
أما OpenAI فقد اختارت نهجاً أكثر مرونة مع ضمانات قانونية، وهو ما يعكس نقاشاً أخلاقياً واسعاً حول دمج الذكاء الاصطناعي في الأمن القومي، وقد يؤثر ذلك في سياسات شركات أخرى العاملة في المجال.
تشير تقارير نيويورك تايمز ورويترز إلى أن التعديل يعكس حواراً مستمراً بين الصناعة والحكومة حول تطبيقات الذكاء الاصطناعي في المجال العسكري وضرورة الالتزام بالقوانين والحدود الأخلاقية.



