ذات صلة

اخبار متفرقة

يعزز امتصاص الحديد ويقوّي المناعة: ما فوائد الليمون؟

يُعَد الليمون من الأطعمة الطبيعية الهامة في النظام الغذائي...

لماذا الرجال أكثر عرضة للإصابة بحصوات الكلى، وما طرق الوقاية منها؟

لماذا يكون الرجال أكثر عرضة للإصابة بحصوات الكلى؟ تتكوّن حصوات...

الكافيين وتأثيره على الدماغ: اعرف فوائده ومخاطره

يُعَدّ الكافيين من أكثر المواد المنبهة استخدامًا في العالم،...

بدون حرمان.. عادات بسيطة تتيح لك خسارة الوزن خلال شهر رمضان

عادات بسيطة تساعدك على خسارة الوزن في شهر رمضان استفد...

طريقة تحضير كنافة أساور مقرمشة وشهية

يُحضَّر طبق كنافة أساور من أشهر حلويات رمضان التي...

في ظل حرب إيران.. تفاصيل حظر ترامب على Anthropic و Claude AI

تصعيد تقني يوازي الحرب التقليدية بين الولايات المتحدة وإيران

تشهد الساحة الدولية تصاعد توترات جيوسياسية بين الولايات المتحدة وإيران مع اندلاع حرب فعلية يتعاظم أثرها ليشمل مجالات غير تقليدية، حيث برزت مواجهة تقنية ضد Anthropic ونظام Claude AI كعنصر رئيسي في الصراع.

أعلنت الإدارة الأمريكية عن مواجهة تقنية كبيرة ضد Anthropic ونظام Claude AI، وهو ما اعتبره خبراء خطوة تمهيدية لحرب تقنية موازية للصراع العسكري القائم بين القوتين.

في وقت سابق أبرمت الحكومة الأمريكية صفقة بقيمة 200 مليون دولار مع Anthropic، لكن البيت الأبيض ووزارة الدفاع قررا حظر استخدام Claude في الجهات الاتحادية، ما أدى إلى فصل الشركة عمليًا عن القطاع الدفاعي الأميركي.

أمر الرئيس الأمريكي ترامب جميع الوكالات الفيدرالية بوقف استخدام أنظمة Anthropic، وقررت وزارة الدفاع أن Anthropic أصبحت مصنفة كخطر على سلسلة التوريد للأمن القومي، وهو تصنيف عادةً ما يُخصص لشركات أجنبية معادية ويضع قيود صارمة على التعامل معها.

كان البنتاجون يعتمد على Claude Gov كنظام الذكاء الاصطناعي المصرح له بالعمل على شبكات الحوسبة السحابية الحساسة، واكتسبت نسخة Claude Gov شهرة واسعة بين موظفي الدفاع بسبب سهولة استخدامها، وسبق استخدامها في عمليات عسكرية مثل ملاحقة الرئيس الفنزويلي مادورو.

أكدت Anthropic أن السلامة تشكل أولوية لدى الشركة، وهو ما أدى إلى خلاف حول من يحدد كيفية استخدام الذكاء الاصطناعي للأمن القومي، إذ طالب البنتاجون بإزالة القيود ليتمكن الجيش من الوصول الكامل للنموذج لأي غرض دفاعي قانوني، بينما رفض المدير التنفيذي ديمو أمودي التخلي عن ضوابط الشركة الأخلاقية وذكر خُطين أحمرين: عدم استخدام Claude للمراقبة الداخلية الشاملة للمواطنين الأميركيين وعدم نشره في أنظمة أسلحة مستقلة تقرر الحياة والموت دون إشراف بشري مناسب.

أكد البنتاجون أن القانون الأميركي هو الذي يجب أن يحدد استخدام الذكاء الاصطناعي الدفاعي وليس سياسات شركة خاصة، وبعد رفض Anthropic التنازل، أمر ترامب بحظر استخدام جميع أنظمة الشركة في الوكالات الفيدرالية مع فترة انتقالية تبلغ ستة أشهر، وتبع ذلك إعلان وزارة الدفاع بأن Anthropic أصبحت مصنّفة كخطر على سلاسل التوريد القومية، وهو تصنيف عادةً ما يخص شركات أجنبية معادية مما يعيق أي تعامل مع الشركة، وعلّلت Anthropic أنها ستطعن في التصنيف قانونيًا باعتباره سابقة خطيرة وغير قانونية.

يركز التحرك ضد Anthropic على مسألة التفوق العسكري والسيادة الوطنية، بينما يرى البنتاجون أن الضوابط الأخلاقية للشركات الخاصة قد تقيد مرونة الجيش في ساحة المعركة، خصوصًا في مواجهة دول مثل الصين دون إثارة مخاوف من المراقبة الجماعية.

وعلى منصة Truth Social، قال ترامب إن Anthropic ارتكبت خطأ كارثيًا بمحاولة فرض شروط خدمتهم على وزارة الحرب بدل الدستور، مؤكدًا أن الولايات المتحدة هي من تقرر مصيرها وليس شركة ذكاء اصطناعي خارجية بلا فهم للعالم الحقيقي.

بعد ساعات من الحظر، أعلن رئيس OpenAI سام ألتمان عن صفقة جديدة مع وزارة الدفاع لتطبيق نماذج OpenAI على الشبكات المصنفة للبنتاغون مع الالتزام بمبادئ السلامة التي تشمل منع المراقبة الجماعية وضمان مسؤولية بشرية واضحة عن استخدام القوة، ووجد أن هذه المبادئ منصوص عليها في القانون الأميركي ومدمجة في العقد الجديد، ليحل بذلك OpenAI محل Anthropic في المشاريع الدفاعية الحساسة مع الحفاظ على الضوابط الأمنية.

spot_img
spot_imgspot_img

تابعونا على