ذات صلة

اخبار متفرقة

أنثروبيك تطلق معهدًا لدراسة تأثير الذكاء الاصطناعي وتحذر من قفزات هائلة خلال عامين

أعلنت شركة Anthropic عن إطلاق معهد Anthropic الجديد لدراسة...

بريكس: الهند تعلن عن تركيب أكثر من 2.3 مليون مضخة ري تعمل بالطاقة الشمسية

أعلنت وزارة الطاقة الجديدة والمتجددة في الهند تركيب أكثر...

أسما إبراهيم تخطف الأنظار بإطلالة بنطلون ويليزر أبيض وأسود عبر إنستجرام | شاهد

أبرزت أسما إبراهيم إطلالة كلاسيكية تجمع بين الأناقة والبساطة،...

طريقة تحضير كب كنافة بأسهل الخطوات

مقادير كب كنافة استخدم نصف كوب من الكنافة المحمرة كقاعدة...

عادات يومية تساهم في تقليل الالتهاب وتحسين الصحة بدون أدوية

يحدث الالتهاب المزمن عندما يهاجم جهاز المناعة الجسم بلا...

موظفو OpenAI وGoogle يدعمون أنثروبيك في نزاعها مع وزارة الدفاع الأمريكية

اعلن OpenAI عن إطلاق نموذج ذكاء اصطناعي جديد يواكب التطورات في المجال، مع تقديم قدرات جديدة تعزز الأداء في عدة تطبيقات.

وفي سياق آخر، كشفت وثائق قضائية أن Google DeepMind دعمت Anthropic في الدعوى التي رفعتها الأخيرة ضد وزارة الدفاع الأمريكية، وذلك بعد أن صنفت الجهة الحكومية Anthropic كخطر على سلسلة التوريد. وقّع أكثر من ثلاثين موظفًا من الشركتين على بيان قانوني يؤيّد موقف Anthropic، معتبرين أن التصنيف الحكومي تعسفي وغير مبرر وقد تكون له انعكاسات سلبية على قطاع الذكاء الاصطناعي في الولايات المتحدة.

بيان قانوني ينتقد القرار

وأشار البيان إلى أن التصنيف كمخاطر على سلسلة التوريد يمثل استخدامًا غير مبرر للسلطة الحكومية. من بين الموقعين، العالم Jeff Dean، كبير العلماء في Google DeepMind، إضافة إلى باحثين ومهندسين في قطاع الذكاء الاصطناعي. أكّد الموقعون أن هذه القرارات قد تكون لها تداعيات واسعة على مستقبل الصناعة في ظل المنافسة العالمية المتزايدة.

سبب الخلاف بين Anthropic والبنتاجون

تعود جذور الخلاف إلى قرار DoD تصنيف Anthropic كمخاطر في سلسلة التوريد، وهو تصنيف يُستخدم عادة في قضايا تتعلق بشركات مرتبطة بدول معادية. جاء القرار بعد رفض Anthropic السماح للوزارة باستخدام تقنياتها في المراقبة الجماعية للمواطنين أو في أنظمة قد تقود إلى إطلاق أسلحة بشكل مستقل. جادلت الوزارة بأن لديها الحق في استخدام تقنيات الذكاء الاصطناعي لأي غرض قانوني دون قيود من جانب تعاقدي خاص.

رفع دعويين قضائيتين ضد الحكومة الأمريكية

قبل صدور البيان، رفعت Anthropic دعويين ضد وزارة الدفاع وعدد من الوكالات الفيدرالية الأخرى، ساعيةً للطعن في قرار التصنيف باعتباره يضر بسمعتها ويؤثر في قدرتها على العمل مع الجهات الحكومية.

بدائل متاحة للحكومة الأمريكية

تشير الوثيقة إلى أن وزارة الدفاع كان بإمكانها إلغاء العقد واللجوء إلى مزودين آخرين بدلاً من اعتبار Anthropic مصدر خطر. كما أكد الموقعون أن للحكومة خيار شراء خدمات من شركات رائدة أخرى في المجال في حال عدم التوصل إلى اتفاق مع Anthropic.

عقد جديد بين البنتاجون وOpenAI

تشير المعطيات إلى أن DoD وقع عقدًا مع OpenAI بعد تصنيف Anthropic كمخاطر في سلسلة التوريد، ما أثار اعتراضات داخلية من بعض موظفي OpenAI الذين قلقوا من طريقة التعامل مع الشركة المنافسة في قطاع الذكاء الاصطناعي.

مخاوف من تأثير القرار على صناعة الذكاء الاصطناعي

يحذر البيان القانوني من أن مثل هذه الإجراءات قد تضعف القدرة التنافسية الأمريكية وتعيق الابتكار العلمي والصناعي خصوصًا في ظل المنافسة الدولية المتزايدة، كما يطالب بالحفاظ على نقاش مفتوح حول مخاطر وفوائد التكنولوجيا مع وجود تشريعات واضحة تُنظم استخدامها وتحديد القيود اللازمة.

الدفاع عن القيود الأخلاقية للذكاء الاصطناعي

أشار الموقعون إلى أن خطوط الحمراء التي وضعتها Anthropic بشأن استخدام تقنياتها تمثل مخاوف مشروعة وتستدعي وجود ضوابط صارمة. كما أكدوا أن القيود التقنية والتعاقدية تعد أحد أهم وسائل الحماية من إساءة استخدام التكنولوجيا في ظل غياب تشريعات واضحة تنظّم استخدامها، وذكروا أن عدداً من الموظفين شارك في رسائل مفتوحة سابقًا تدعو إلى سحب التصنيف عن Anthropic ودعم موقفهم ورفض استخدام أنظمة الذكاء الاصطناعي بشكل أحادي من قبل الحكومة دون الالتزام بالضوابط الأخلاقية المتفق عليها.

spot_img
spot_imgspot_img

تابعونا على