ذات صلة

اخبار متفرقة

هل التجشؤ المتكرر علامة على الإصابة بالسرطان؟.. أعراض تحذيرية

تُعَدّ التجشؤ المتكرر غالباً غير ضار ويرتبط بمشاكل مثل...

فوائد الليمون: تعزيز المناعة وتحسين امتصاص الحديد

يُعد الليمون من أهم الأطعمة الطبيعية التي يمكن أن...

طرق لتجنب طرطشة الزيت في المطبخ بخطوات بسيطة

لماذا يطرطش الزيت أثناء القلي؟ يحدث الطرطشة عندما تلامس الرطوبة...

الكافيين وتأثيره على الدماغ: اعرف فوائده ومخاطره

يعد الكافيين من أكثر المواد المنبهة استخدامًا في العالم،...

بدون حرمان: عادات بسيطة تساعدك في خسارة الوزن خلال رمضان

يتغير توقيت تناول الطعام خلال رمضان، وقد يواجه كثيرون...

في ظل حرب إيران.. تفاصيل حظر ترامب على Anthropic و Claude AI

تصعيد تقني يوازي الحرب التقليدية بين الولايات المتحدة وإيران

تشهد الساحة الدولية تصاعد توترات جيوسياسية بين الولايات المتحدة وإيران مع اندلاع حرب فعلية يتعاظم أثرها ليشمل مجالات غير تقليدية، حيث برزت مواجهة تقنية ضد Anthropic ونظام Claude AI كعنصر رئيسي في الصراع.

أعلنت الإدارة الأمريكية عن مواجهة تقنية كبيرة ضد Anthropic ونظام Claude AI، وهو ما اعتبره خبراء خطوة تمهيدية لحرب تقنية موازية للصراع العسكري القائم بين القوتين.

في وقت سابق أبرمت الحكومة الأمريكية صفقة بقيمة 200 مليون دولار مع Anthropic، لكن البيت الأبيض ووزارة الدفاع قررا حظر استخدام Claude في الجهات الاتحادية، ما أدى إلى فصل الشركة عمليًا عن القطاع الدفاعي الأميركي.

أمر الرئيس الأمريكي ترامب جميع الوكالات الفيدرالية بوقف استخدام أنظمة Anthropic، وقررت وزارة الدفاع أن Anthropic أصبحت مصنفة كخطر على سلسلة التوريد للأمن القومي، وهو تصنيف عادةً ما يُخصص لشركات أجنبية معادية ويضع قيود صارمة على التعامل معها.

كان البنتاجون يعتمد على Claude Gov كنظام الذكاء الاصطناعي المصرح له بالعمل على شبكات الحوسبة السحابية الحساسة، واكتسبت نسخة Claude Gov شهرة واسعة بين موظفي الدفاع بسبب سهولة استخدامها، وسبق استخدامها في عمليات عسكرية مثل ملاحقة الرئيس الفنزويلي مادورو.

أكدت Anthropic أن السلامة تشكل أولوية لدى الشركة، وهو ما أدى إلى خلاف حول من يحدد كيفية استخدام الذكاء الاصطناعي للأمن القومي، إذ طالب البنتاجون بإزالة القيود ليتمكن الجيش من الوصول الكامل للنموذج لأي غرض دفاعي قانوني، بينما رفض المدير التنفيذي ديمو أمودي التخلي عن ضوابط الشركة الأخلاقية وذكر خُطين أحمرين: عدم استخدام Claude للمراقبة الداخلية الشاملة للمواطنين الأميركيين وعدم نشره في أنظمة أسلحة مستقلة تقرر الحياة والموت دون إشراف بشري مناسب.

أكد البنتاجون أن القانون الأميركي هو الذي يجب أن يحدد استخدام الذكاء الاصطناعي الدفاعي وليس سياسات شركة خاصة، وبعد رفض Anthropic التنازل، أمر ترامب بحظر استخدام جميع أنظمة الشركة في الوكالات الفيدرالية مع فترة انتقالية تبلغ ستة أشهر، وتبع ذلك إعلان وزارة الدفاع بأن Anthropic أصبحت مصنّفة كخطر على سلاسل التوريد القومية، وهو تصنيف عادةً ما يخص شركات أجنبية معادية مما يعيق أي تعامل مع الشركة، وعلّلت Anthropic أنها ستطعن في التصنيف قانونيًا باعتباره سابقة خطيرة وغير قانونية.

يركز التحرك ضد Anthropic على مسألة التفوق العسكري والسيادة الوطنية، بينما يرى البنتاجون أن الضوابط الأخلاقية للشركات الخاصة قد تقيد مرونة الجيش في ساحة المعركة، خصوصًا في مواجهة دول مثل الصين دون إثارة مخاوف من المراقبة الجماعية.

وعلى منصة Truth Social، قال ترامب إن Anthropic ارتكبت خطأ كارثيًا بمحاولة فرض شروط خدمتهم على وزارة الحرب بدل الدستور، مؤكدًا أن الولايات المتحدة هي من تقرر مصيرها وليس شركة ذكاء اصطناعي خارجية بلا فهم للعالم الحقيقي.

بعد ساعات من الحظر، أعلن رئيس OpenAI سام ألتمان عن صفقة جديدة مع وزارة الدفاع لتطبيق نماذج OpenAI على الشبكات المصنفة للبنتاغون مع الالتزام بمبادئ السلامة التي تشمل منع المراقبة الجماعية وضمان مسؤولية بشرية واضحة عن استخدام القوة، ووجد أن هذه المبادئ منصوص عليها في القانون الأميركي ومدمجة في العقد الجديد، ليحل بذلك OpenAI محل Anthropic في المشاريع الدفاعية الحساسة مع الحفاظ على الضوابط الأمنية.

spot_img
spot_imgspot_img

تابعونا على