ذات صلة

اخبار متفرقة

7 عادات رمضانية تقليدية لا يعرفها جيل Z.. ذكريات صنعت روح الشهر الكريم

شهر رمضان زمان كان رمضان زمان موسمًا للدفء الإنساني وذكريات...

ضغطة خاطئة قد تكلف جهازك.. تحذيرات من روابط الهدايا المجانية

تشير دراسة كاسبرسكي إلى أن 80% من المشاركين يفكرون...

نقرة خاطئة تكلف جهازك.. تحذيرات من روابط الهدايا المجانية

ارتفاع حملات التصيد المرتبطة ببطاقات الهدايا تكشف دراسة كاسبرسكي أن...

إطلاق أول بطولة قتالية للروبوتات الشبيهة بالبشر في العالم بجائزة قدرها 1.44 مليون دولار

أعلنت شركة EngineAI الصينية المتخصصة في الروبوتات عن إطلاق...

متى يصبح ارتفاع إنزيمات الكبد خطيرًا؟

تُعدّ ارتفاعات إنزيمات الكبد إشارة بيولوجية تعكس وجود ضغط...

تقرير: البنتاجون استخدم Claude AI لاعتقال الرئيس الفنزويلي مادورو

كشف تقرير أن أنثروبيك استخدمت Claude عبر شراكتها مع Palantir Technologies في عملية عسكرية أمريكية لاستهداف الرئيس الفنزويلي نيكولاس مادورو، مع قصف مواقع في كاراكاس واستهداف مادورو وزوجته، ما يسلط الضوء على توسع الاعتماد على نماذج الذكاء الاصطناعي في الأمن القومي.

وتم نشر Claude بحسب التقرير من خلال شراكة أنثروبيك مع Palantir، التي تُستخدم منصاتها على نطاق واسع من قبل وزارة الدفاع ووكالات الإنفاذ الفيدرالية، وفقًا لمصادر مطلعة، وقد جرت المهمة الشهر الماضي.

ولا تزال تفاصيل استخدام Claude غامضة، فالتفاصيل الدقيقة عن العملية والدور الذي لعبه النظام لم تكشف، لكن وجود نموذج ذكاء إصطناعي تجاري في عملية عسكرية فعلية يثير تساؤلات حول حدوده وموضعه في الميدان.

قال متحدث باسم أنثروبيك لصحيفة وول ستريت جورنال: “لا يمكننا التعليق على ما إذا كان Claude، أو أي نموذج ذكاء اصطناعي آخر، قد استُخدم في أي عملية محددة، سواء سرية أم لا”، مبينًا أن أي استخدام لبرنامج Claude يخضع لسياسات الاستخدام ونحن نتعاون مع شركائنا لضمان الامتثال.

وتم نشر برنامج Claude عبر هذه القناة، وفقًا للتقارير، من خلال شراكة أنثروبيك مع Palantir Technologies، التي تُستخدم منصاتها على نطاق واسع من قبل وزارة الدفاع ووكالات إنفاذ القانون الفيدرالية، وبذلك أصبح Claude جزءًا من نظام مدمج في إطار الأمن القومي.

تداعيات الاستخدام العسكري للنماذج الذكاء الاصطناعي

يثير هذا التطور توترًا بين ضمانات الذكاء الاصطناعي والاستخدام العسكري، فإذ كان لدى أنثروبيك قواعد تحظر استخدام Claude لتسهيل العنف أو تطوير الأسلحة أو التجسس، فإن العملية المذكورة تطرح تساؤلات عن التباين بين السياسات المكتوبة والواقع الميداني.

كان أنثروبيك أول مطور نماذج AI يُستخدم نظامه في عمليات سرية من قبل البنتاجون، وقد يُستخدم أدوات أخرى في مهمة فنزويلا لأغراض غير سرية، حيث يمكن لهذه الأنظمة في البيئات العسكرية أن تساعد في تحليل كميات ضخمة من الوثائق، وإعداد التقارير، أو دعم أنظمة الطائرات المسيرة ذاتية التشغيل.

صدر عن داريو أمودي، الرئيس التنفيذي لأنثروبيك، تصريحات شديدة حول مخاطر أنظمة AI المتقدمة ودعا إلى ضوابط ولوائح أقوى، كما عبَّر عن قلقه بشأن استخدامها في القتل المزدوج والمراقبة الداخلية، وهو ما أصبح نقطة خلاف في مفاوضات العقود مع البنتاجون.

تشير تقارير إلى أن العقد المُمنوح الصيف الماضي لأثـنـثروبيك بقيمة 200 مليون دولار يخضع حاليًا للتدقيق، مع وجود تقارير سابقة عن مخاوف داخل الشركة من كيفية استخدام الجيش لتقنية Claude مما دفع الإدارة إلى التفكير في إلغاء الاتفاقية.

يبدو أن الخلاف يتجاوز واقعة واحدة، فيوضح انقسامًا أعمق حول إدارة الذكاء الاصطناعي، بين منادٍ بنهج تنظيمى أقل صرامة ومن يرون ضرورة فرض ضمانات وقيود أشد، بما في ذلك على صادرات رقائق الذكاء الاصطناعي.

وفي فعالية جرت في يناير للإعلان عن تعاون البنتاغون مع شركة xAI، صرّح وزير الدفاع بيت هيغسِث بأن الوكالة لن “تستخدم نماذج ذكاء اصطناعي لا تُمكّن من خوض الحروب”، في إشارة إلى النقاشات مع أنثروبيك، وهو ما يعكس الاستمرار في الجدل حول التوازن بين الابتكار والضمانات.

spot_img

spot_imgspot_img

تابعونا على