ذات صلة

اخبار متفرقة

من وحى مسلسل توابع.. كيف تقدم الدعم لصديقك في مواجهة أزمة صعبة؟

تظهر شروق، التي تجسد شخصية ريهام حجاج، وهي تعيش...

خسوف القمر في مارس 2026: موعد الظاهرة والدول التي ستشهدها بالكامل مساء اليوم

خسوف القمر الكلي القادم يشهد العالم خسوفًا كليًا للقمر، وهو...

كيف توقّع الذكاء الاصطناعي موعد الهجوم على إيران؟

توقعات أنظمة الذكاء الاصطناعي حول تاريخ ضربة محتملة لإيران خضعت...

منظمة الصحة العالمية تصدر توصيات جديدة لتشخيص مرض السل باستخدام مسحة اللسان

تعلن منظمة الصحة العالمية لأول مرة توصيات بشأن اختبارات...

بعد رفض أنثروبيك، OpenAI تعدل اتفاقها مع البنتاجون لمنع المراقبة الجماعية

التعديل والضمانات في اتفاق OpenAI والبنتاغون

أعلنت OpenAI تعديل اتفاقها مع وزارة الدفاع الأمريكية لإضافة ضمانات تمنع استخدامها في المراقبة الجماعية للمواطنين الأمريكيين، وجاء ذلك بعد انتقادات واسعة للاتفاق الأصلي عندما انسحبت منافستها أنثروبيك بسبب رفضها شروطاً مشابهة.

يتضمن التعديل بنوداً صريحة تحظر استخدام نماذج الذكاء الاصطناعي للمراقبة الداخلية للأشخاص الأمريكيين، مع الالتزام بالقوانين الفدرالية ذات الصلة، ويُتيح استخدام التقنية لأغراض دفاعية خارجية فقط مع الحفاظ على الحدود الأخلاقية.

في سياق تصعيد عسكري في الشرق الأوسط، يسعى البنتاجون لدمج الذكاء الاصطناعي في عملياته، مما يعزز الحاجة إلى إطار يوازن بين الأمان والكشف عن الحدود الأخلاقية عند تطبيق التقنية ضمن نطاق دفاعي خارجي.

التوتر بين الشركات والحكومة

رفضت أنثروبيك الاتفاق بسبب مخاوف من احتمال استخدام تقنيتها في أسلحة ذاتية أو مراقبة واسعة، ما أدى إلى استبعادها من بعض العقود الحكومية.

أما OpenAI فقد اختارت نهجاً أكثر مرونة مع ضمانات قانونية، وهو ما يعكس نقاشاً أخلاقياً واسعاً حول دمج الذكاء الاصطناعي في الأمن القومي، وقد يؤثر ذلك في سياسات شركات أخرى العاملة في المجال.

تشير تقارير نيويورك تايمز ورويترز إلى أن التعديل يعكس حواراً مستمراً بين الصناعة والحكومة حول تطبيقات الذكاء الاصطناعي في المجال العسكري وضرورة الالتزام بالقوانين والحدود الأخلاقية.

spot_img
spot_imgspot_img

تابعونا على