بيان موظفين يدعم Anthropic في الدعوى ضد وزارة الدفاع الأمريكية
أعلن أكثر من ثلاثين موظفاً من OpenAI وGoogle DeepMind عن توقيعهم بياناً قانونياً يدعم Anthropic في الدعوى المرفوعة ضد وزارة الدفاع الأمريكية، معتبرين أن قرار تصنيف Anthropic كخطر في سلسلة التوريد جاء تعسفياً وغير مبرر، وقد يترك آثاراً سلبية واسعة على صناعة الذكاء الاصطناعي في الولايات المتحدة.
أوضح الموقعون في المذكرة القانونية أن التصنيف كخطرٍ في سلسلة التوريد يمثل استخداماً غير مبرر للسلطة الحكومية، محذرين من تبعات محتملة على الابتكار والقدرات الأمريكية، وكان من بين الموقعين Jeff Dean، كبير علماء Google DeepMind، إلى جانب مجموعة من الباحثين والمهندسين العاملين في قطاع الذكاء الاصطناعي.
ترجع جذور الخلاف إلى قرار وزارة الدفاع الأمريكية بتصنيف Anthropic كخطر في سلسلة التوريد، وهو تصنيف يُستخدم عادة في حالات تتعلق بشركات مرتبطة بدول معادية، وجاء القرار بعد أن رفضت Anthropic السماح للوزارة باستخدام تقنياتها في المراقبة الجماعية للمواطنين الأمريكيين أو في أنظمة يمكنها إطلاق الأسلحة بشكل مستقل، بينما جادلت الدفاع بأن لديها الحق في استخدام تقنيات الذكاء الاصطناعي لأي غرض قانوني دون أن تقيدها شروط يفرضها متعاقد خاص.
رفعت Anthropic دعويين قضائيتين ضد DoD وعدد من الوكالات الفيدرالية الأخرى للطعن في قرار التصنيف، معتبرة أن القرار يسيء إلى سمعتها ويؤثر في قدرتها على العمل مع الحكومة.
أشار الموقعون إلى أنه إذا لم تكن وزارة الدفاع راضية عن شروط التعاقد مع Anthropic، فكان بإمكانها ببساطة إلغاء العقد واللجوء إلى شركة أخرى لتوفير خدمات الذكاء الاصطناعي.
وقّع DoD بالفعل اتفاقاً مع OpenAI في خطوة تثير اعتراضات داخلية بين بعض موظفي الشركة، الذين أعربوا عن قلقهم بشأن طريقة التعامل مع شركة منافسة في قطاع الذكاء الاصطناعي.
وحذر البيان القانوني من أن السماح بمثل هذه الإجراءات قد يضعف القدرة التنافسية الأمريكية في الذكاء الاصطناعي، كما قد يحد من الحوار المفتوح داخل مجتمع الذكاء الاصطناعي حول مخاطر وفوائد هذه التقنيات، خصوصاً في ظل التنافس الدولي المتزايد.
أكدت الوثيقة أن القيود الأخلاقية التي تفرضها Anthropic تشكل ضوابط ضرورية للحد من إساءة استخدام التكنولوجيا، معتبرة أن وجود إطار تشريعي واضح يعد حلاً فعالاً إلى جانب القيود التعاقدية، وذلك في ظل غياب تشريعات واضحة تنظم استخدام الذكاء الاصطناعي.
كما شارك عدد من الموقعين في رسائل مفتوحة خلال الأسابيع الأخيرة يدعون DoD إلى سحب تصنيف “خطر سلسلة التوريد” عن Anthropic، ويدعون قيادات شركاتهم إلى اتخاذ موقف واضح بدعم Anthropic ورفض استخدام أنظمة الذكاء الاصطناعي الخاصة بهم من قبل الحكومة دون تقيد بالضوابط الأخلاقية.



