ذات صلة

اخبار متفرقة

قبل العيد: طريقة تحضير البيتي فور خطوة بخطوة

المقادير اخلط 4 كوب دقيق منخول مع 2 كوب زبدة...

ما هو إفطارنا اليوم؟ دجاج مشوي في الفرن وجلاش بالفراخ ولقمة القاضي

دجاج مشوي في الفرن لنجلاء الشرشابي ابدأ بتحضير الدجاجة المقطعة...

اجعله ضمن فطورك، فالأرز البني يمنحك الطاقة ويحافظ على استقرار سكر الدم.

ابدأ بتناول الأرز البني كخيارٍ صحي للإفطار، لما يقدمه...

مسلسل على قدر الحب: أعراض الصدمة النفسية

تتصاعد أحداث الحلقة العشرون من مسلسل على قد الحب...

موظفو OpenAI وGoogle يؤيدون أنثروبيك في نزاعها مع وزارة الدفاع الأمريكية

دعم موظفي OpenAI وGoogle DeepMind لشركة Anthropic في الدعوى ضد البنتاجون

وقع أكثر من ثلاثين موظفًا من OpenAI وGoogle DeepMind على بيان قانوني يدعم موقف Anthropic ويعارض قرار الحكومة الأمريكية اعتبارها مخاطر في سلسلة التوريد، معتبرين أن القرار تعسفي وغير مبرر وقد يترك آثارًا سلبية على صناعة الذكاء الاصطناعي في الولايات المتحدة.

تشير المذكرة القانونية إلى أن تصنيف Anthropic كخطر في سلسلة التوريد يمثل استغلالاً غير مبرر للسلطة الحكومية، وتوقّعها عدد من العلماء والباحثين من قطاع الذكاء الاصطناعي، بينهم Jeff Dean، كبير العلماء في Google DeepMind، إضافة إلى آخرين، محذرين من تداعيات واسعة على مستقبل الصناعة في ظل المنافسة العالمية المتزايدة.

تعود جذور الخلاف إلى قرار وزارة الدفاع تصنيف Anthropic كمخاطر في سلسلة التوريد، وهو تصنيف عادةً ما يُستخدم في قضايا مرتبطة بدول معادية، بينما جادلت Anthropic بأنها لم ترغب في استخدام تقنياتها للمراقبة الجماعية للمواطنين أو في أنظمة قد تشغّل أسلحة مستقلة، بينما ترى البنتاجون أن لديها الحق في استخدام تقنيات الذكاء الاصطناعي لأي غرض قانوني دون قيود من قبل متعاقدين.

رفعت Anthropic دعاوي قضائية ضد وزارة الدفاع وعدة وكالات فدرالية أخرى للطعن في القرار، معتبرة أنه يضر بسمعتها ويقيّد قدرتها على العمل مع الجهات الحكومية.

وأشارت الوثيقة إلى أن إذا لم تكن وزارة الدفاع راضية عن شروط التعاقد مع Anthropic، فكان بإمكانها إلغاء العقد واللجوء إلى شركات أخرى لتوفير خدمات الذكاء الاصطناعي.

وذكر أن DoD وقع بالفعل اتفاقًا مع OpenAI بعد تصنيف Anthropic كمخاطر في سلسلة التوريد، وهو ما أثار اعتراضات داخلية بين بعض موظفي OpenAI بشأن طريقة التعامل مع منافس في قطاع الذكاء الاصطناعي.

يحذر البيان القانوني من أن مثل هذه الإجراءات قد تقوّض قدرة الولايات المتحدة على المنافسة في الذكاء الاصطayiف وتحد من الابتكار العلمي والصناعي، خاصة في ظل التنافس الدولي المتزايد، كما يرى أن تقييد النقاش المفتوح داخل مجتمع الذكاء الاصطناعي حول مخاطر وفوائد هذه التقنيات قد يحد من التطور.

أكّد الموقعون أن القيود الأخلاقية لاستخدام تقنيات الذكاء الاصطناعي تمثل مخاوف مشروعة وتستدعي ضوابط صارمة، وأن في غياب تشريعات واضحة، تشكّل القيود التقنية والتعاقدية إحدى وسائل الحماية من إساءة الاستخدام الكارثية للتكنولوجيا.

وأشار عدة الموقعين إلى أنهم شاركوا في رسائل مفتوحة تدعو وزارة الدفاع إلى سحب تصنيف “خطر سلسلة التوريد” عن Anthropic، وآمنوا قيادات شركاتهم باتخاذ موقف واضح لدعم Anthropic ورفض الاستخدام الأحادي من قبل الحكومة دون الالتزام بالضوابط الأخلاقية المتفق عليها.

spot_img
spot_imgspot_img

تابعونا على