أعلن أكثر من ثلاثين موظفًا من الشركتين OpenAI وGoogle DeepMind دعمهم بيانًا قانونيًا يؤيّد موقف أنثروبيك، معتبرين أن تصنيف وزارة الدفاع الأمريكية لها كمخاطر في سلسلة التوريد جاء تعسفيًا وغير مبرر وسيكون له آثار سلبية واسعة على صناعة الذكاء الاصطناعي في الولايات المتحدة.
بيان قانوني ينتقد القرار الحكومي ويُبرز المخاوف
وتوضح المذكرة القانونية التي قدمها هؤلاء الموظفون أن اعتبار Anthropic خطرًا على سلسلة التوريد يمثل استخدامًا غير مبرر للسلطة الحكومية، مع توقيع العلماء والباحثين والمهندسين البارزين، من بينهم Jeff Dean، كبير العلماء في Google DeepMind، إضافة إلى آخرين في قطاع الذكاء الاصطناعي، وأن هذه المواقف قد تُحدِث تبعات واسعة على التنافس والابتكار العالمي.
تعود جذور الخلاف إلى قرار وزارة الدفاع الأمريكية بتصنيف Anthropic كمخاطر في سلسلة التوريد، وهو تصنيف يُستخدم عادة في حالات تتعلق بشركات مرتبطة بدول معادية، وجاء القرار بعد رفض Anthropic السماح للوزارة باستخدام تقنياتها في المراقبة الجماعية للمواطنين الأميركيين أو في أنظمة يمكنها إطلاق أسلحة بشكل مستقل، في حين جادلت وزارة الدفاع بأن لديها الحق في استخدام تقنيات الذكاء الاصطناعي لأي غرض قانوني دون فرض قيود من متعاقدين.
قبل ساعات من ظهور البيان الداعم في المحكمة، رفعت Anthropic دعويين قضائيتين ضد وزارة الدفاع وعدة وكالات اتحادية أخرى للطعن في قرار التصنيف، معتبرة أن القرار يضر بسمعتها ويؤثر في قدرتها على العمل مع الجهات الحكومية.
وفي الوثيقة القانونية أشارت موظفو OpenAI وGoogle DeepMind إلى أنه إذا لم تكن وزارة الدفاع راضية عن شروط التعاقد مع Anthropic، فكان بإمكانها ببساطة إلغاء العقد واللجوء إلى جهة أخرى، موضحين أن للحكومة خيار شراء الخدمات من شركات رائدة أخرى بدل تصنيف Anthropic كمصدر خطر.
ومن اللافت أن وزارة الدفاع وقعت عقدًا مع OpenAI بعد لحظات من تصنيف Anthropic كمخاطر في سلسلة التوريد، وهو التطور الذي أثار اعتراضات داخلية بين بعض موظفي OpenAI الذين عبّروا عن قلقهم من طريقة معاملة الشركة المنافسة في قطاع الذكاء الاصطناعي.
يحذر البيان القانوني من أن السماح بمثل هذه الإجراءات قد يؤدي إلى إضعاف القدرة التنافسية للولايات المتحدة في مجال الذكاء الاصطناعي، كما يشير إلى أن معاقبة شركة رائدة قد يعوق الابتكار العلمي والصناعي داخل الولايات المتحدة، خاصة في ظل المنافسة الدولية المتزايدة، إضافة إلى احتمال تقييد النقاش المفتوح في مجتمع الذكاء الاصطناعي حول مخاطر وفوائد هذه التقنية.
كما أكدت الوثيقة أن القيود الأخلاقية التي وضعتها Anthropic بشأن استخدام تقنياتها تمثل مخاوف مشروعة تستدعي وجود ضوابط صارمة، وأن في غياب تشريعات واضحة تنظم استخدام الذكاء الاصطناعي، فإن القيود التقنية والتعاقدية التي تفرضها الشركات المطورة تشكل إحدى أهم وسائل الحماية ضد إساءة الاستخدام الكارثية لهذه التكنولوجيا.
وكان العديد من الموقعين قد شاركوا في رسائل مفتوحة خلال الأسابيع الماضية تدعو وزارة الدفاع الأمريكية إلى سحب تصنيف “خطر سلسلة التوريد” عن Anthropic، كما طالبوا قيادات شركاتهم، بما في ذلك OpenAI وGoogle، باتخاذ موقف واضح لدعم Anthropic ورفض استخدام أنظمة الذكاء الاصطناعي الخاصة بهم بشكل أحادي من قبل الحكومة دون الالتزام بالضوابط الأخلاقية المتفق عليها.



