ذات صلة

اخبار متفرقة

قبل العيد: طريقة تحضير البيتي فور خطوة بخطوة

المقادير اخلط 4 كوب دقيق منخول مع 2 كوب زبدة...

ما هو إفطارنا اليوم؟ دجاج مشوي في الفرن وجلاش بالفراخ ولقمة القاضي

دجاج مشوي في الفرن لنجلاء الشرشابي ابدأ بتحضير الدجاجة المقطعة...

اجعله ضمن فطورك، فالأرز البني يمنحك الطاقة ويحافظ على استقرار سكر الدم.

ابدأ بتناول الأرز البني كخيارٍ صحي للإفطار، لما يقدمه...

مسلسل على قدر الحب: أعراض الصدمة النفسية

تتصاعد أحداث الحلقة العشرون من مسلسل على قد الحب...

موظفو OpenAI وGoogle يدعمون أنثروبيك في نزاعها مع وزارة الدفاع الأمريكية

مذكرة قانونية تدين قرار الحكومة الأمريكية

وقع أكثر من ثلاثين موظفاً من OpenAI وGoogle DeepMind بياناً قانونياً يدعم موقف Anthropic، معتبرين أن تصنيف الوزارة الأمريكية Anthropic كمخاطر في سلسلة التوريد قرار تعسفي وغير مبرر، وقد يترك آثاراً سلبية على قطاع الذكاء الاصطناعي في الولايات المتحدة.

ورد في المذكرة أن التصنيف يمثل استخداماً غير مناسب للسلطة الحكومية، وأن مثل هذه الإجراءات قد يكون لها تبعات واسعة على مستقبل الصناعة، مع وجود توقيعات لباحثين ورواد من بينهم Jeff Dean، كبير علماء Google DeepMind، إلى جانب عدد من الباحثين والمهندسين العاملين في القطاع، وهو ما يؤكد مخاوف من تأثير القرار على المنافسة والابتكار.

أوضح الموقعون أن مثل هذه القرارات الحكومية قد تقيّد النقاش المفتوح في مجتمع الذكاء الاصطناعي وتُضعف القدرة التنافسية للولايات المتحدة، خاصة في ظل المنافسة الدولية المتزايدة في المجال.

سبب الخلاف بين Anthropic والبنتاجون

تعود جذور الخلاف إلى قرار DoD تصنيف Anthropic كمخاطر في سلسلة التوريد، وهو تصنيف يُستخدم عادة تجاه شركات مرتبطة بدول أو جهات أخرى، وذلك بعدما رفضت Anthropic السماح للوزارة باستخدام تقنياتها في المراقبة الجماعية للمواطنين أو في أنظمة قد تطلق أسلحة بشكل مستقل. في المقابل جادلت وزارة الدفاع بأن لديها الحق في استخدام تقنيات الذكاء الاصطناعي لأي غرض قانوني دون قيود تفرضها عقود خاصة.

رفع دعويين ضد الحكومة الأمريكية

قبل صدور البيان الداعم، رفعت Anthropic دعويين ضد DoD وعدة وكالات اتحادية للطعن في التصنيف باعتباره مخاطرة في سلسلة التوريد، معتبرة أن القرار يضر بسمعتها ويؤثر على قدرتها على العمل مع الجهات الحكومية.

بدائل متاحة للحكومة الأمريكية

وفي الوثيقة أشار الموقعون إلى أنه إذا لم ترض DoD عن شروط التعاقد مع Anthropic، فكان بإمكانها إلغاء العقد واللجوء إلى شركات أخرى لتزويد الخدمات، أو اختيار مسار واضح للشراء من منافسين بارزين في المجال بدلاً من تصنيف الشركة كمصدر خطر.

عقد جديد بين البنتاجون وOpenAI

بعد التصنيف، وقّع DoD عقداً مع OpenAI، وهو ما أثار اعتراضات داخلية في OpenAI حول الطريقة التي عُوملت بها الشركة المنافسة وتأثير ذلك على بيئة العمل وسياق الابتكار داخل الصناعة.

مخاوف من تأثير القرار على الصناعة والابتكار

يحذر البيان من أن السماح بمثل هذه الإجراءات قد يضعف قدرة الولايات المتحدة في مجال الذكاء الاصطناعي، وأن معاقبة أحد رواد القطاع قد ينعكس سلباً على الابتكار العلمي والصناعي، خصوصاً في ظل المنافسة الدولية المتزايدة. كما يشير إلى أهمية الحفاظ على حوار مفتوح داخل المجتمع حول مخاطر وفوائد هذه التكنولوجيا وتبني ضوابط أخلاقية قوية.

دفاع عن القيود الأخلاقية للذكاء الاصطناعي

أكدت الوثيقة أن الخطوط الحمراء التي وضعها Anthropic بشأن استخدام تقنياتها تمثل مخاوف مشروعة وتستدعي وجود ضوابط صارمة، وأن في غياب تشريعات واضحة تشكل القيود التقنية والتعاقدية إحدى أهم وسائل الحماية من إساءة الاستخدام الكارثية للتقنية.

وكان الموقعون من بين من شاركوا في رسائل مفتوحة تطالب DoD بسحب تصنيف «خطر سلسلة التوريد» عن Anthropic، ودعوا قيادات شركاتهم إلى موقف واضح لدعم Anthropic ورفض استخدام أنظمة الذكاء الاصطناعي الحكومية بشكل أحادي دون الالتزام بضوابط أخلاقية.

spot_img
spot_imgspot_img

تابعونا على