ذات صلة

اخبار متفرقة

آبل تتخلى عن تطوير آيفون قابل للطى بتصميم صدفي لأنها ترى أنه غير ضروري

قرار التخلي عن نموذج صدفي للهاتف القابل للطي قررت آبل...

جوجل تخطط لبناء بطاريات ضخمة لدعم مراكز بيانات الذكاء الاصطناعي

تسعى جوجل إلى بناء أنظمة لتخزين الطاقة عبر بطاريات...

المحفز الخفى للسمنة: تناول كميات كبيرة من الملح يزيد من تخزين الدهون

كيف يؤثر الملح على الوزن بشكل غير مباشر يزيد الإفراط...

دراسة: الشطرنج وحل الألغاز يسهمان في تأخير الإصابة بالزهايمر لسنوات

أظهرت دراسة رئيسية نشرت في مجلة علم الأعصاب أن...

ممارسات يومية تقلل الالتهاب وتدعم الصحة بدون أدوية

ما هو الالتهاب المزمن؟ يتسبب الالتهاب المزمن عندما يهاجم جهاز...

موظفو OpenAI وGoogle يدعمون أنثروبيك في نزاعها مع وزارة الدفاع الأمريكية

بيان موظفين يدعم Anthropic في الدعوى ضد وزارة الدفاع الأمريكية

أعلن أكثر من ثلاثين موظفاً من OpenAI وGoogle DeepMind عن توقيعهم بياناً قانونياً يدعم Anthropic في الدعوى المرفوعة ضد وزارة الدفاع الأمريكية، معتبرين أن قرار تصنيف Anthropic كخطر في سلسلة التوريد جاء تعسفياً وغير مبرر، وقد يترك آثاراً سلبية واسعة على صناعة الذكاء الاصطناعي في الولايات المتحدة.

أوضح الموقعون في المذكرة القانونية أن التصنيف كخطرٍ في سلسلة التوريد يمثل استخداماً غير مبرر للسلطة الحكومية، محذرين من تبعات محتملة على الابتكار والقدرات الأمريكية، وكان من بين الموقعين Jeff Dean، كبير علماء Google DeepMind، إلى جانب مجموعة من الباحثين والمهندسين العاملين في قطاع الذكاء الاصطناعي.

ترجع جذور الخلاف إلى قرار وزارة الدفاع الأمريكية بتصنيف Anthropic كخطر في سلسلة التوريد، وهو تصنيف يُستخدم عادة في حالات تتعلق بشركات مرتبطة بدول معادية، وجاء القرار بعد أن رفضت Anthropic السماح للوزارة باستخدام تقنياتها في المراقبة الجماعية للمواطنين الأمريكيين أو في أنظمة يمكنها إطلاق الأسلحة بشكل مستقل، بينما جادلت الدفاع بأن لديها الحق في استخدام تقنيات الذكاء الاصطناعي لأي غرض قانوني دون أن تقيدها شروط يفرضها متعاقد خاص.

رفعت Anthropic دعويين قضائيتين ضد DoD وعدد من الوكالات الفيدرالية الأخرى للطعن في قرار التصنيف، معتبرة أن القرار يسيء إلى سمعتها ويؤثر في قدرتها على العمل مع الحكومة.

أشار الموقعون إلى أنه إذا لم تكن وزارة الدفاع راضية عن شروط التعاقد مع Anthropic، فكان بإمكانها ببساطة إلغاء العقد واللجوء إلى شركة أخرى لتوفير خدمات الذكاء الاصطناعي.

وقّع DoD بالفعل اتفاقاً مع OpenAI في خطوة تثير اعتراضات داخلية بين بعض موظفي الشركة، الذين أعربوا عن قلقهم بشأن طريقة التعامل مع شركة منافسة في قطاع الذكاء الاصطناعي.

وحذر البيان القانوني من أن السماح بمثل هذه الإجراءات قد يضعف القدرة التنافسية الأمريكية في الذكاء الاصطناعي، كما قد يحد من الحوار المفتوح داخل مجتمع الذكاء الاصطناعي حول مخاطر وفوائد هذه التقنيات، خصوصاً في ظل التنافس الدولي المتزايد.

أكدت الوثيقة أن القيود الأخلاقية التي تفرضها Anthropic تشكل ضوابط ضرورية للحد من إساءة استخدام التكنولوجيا، معتبرة أن وجود إطار تشريعي واضح يعد حلاً فعالاً إلى جانب القيود التعاقدية، وذلك في ظل غياب تشريعات واضحة تنظم استخدام الذكاء الاصطناعي.

كما شارك عدد من الموقعين في رسائل مفتوحة خلال الأسابيع الأخيرة يدعون DoD إلى سحب تصنيف “خطر سلسلة التوريد” عن Anthropic، ويدعون قيادات شركاتهم إلى اتخاذ موقف واضح بدعم Anthropic ورفض استخدام أنظمة الذكاء الاصطناعي الخاصة بهم من قبل الحكومة دون تقيد بالضوابط الأخلاقية.

spot_img
spot_imgspot_img

تابعونا على