ذات صلة

اخبار متفرقة

موظفو OpenAI وGoogle يدعمون أنثروبيك في نزاعها مع وزارة الدفاع الأمريكية

مذكرة قانونية تدين قرار الحكومة الأمريكية وقع أكثر من ثلاثين...

مجموعة سالت تايفون الصينية تشن أوسع حملة قرصنة تستهدف شبكات اتصالات عالمية

تتصدر مجموعة سالت تايفون قائمة أبرز جماعات القرصنة وتؤثر...

سبيس إكس تطلق قمرًا صناعيًا تلفزيونيًا بوزن 15000 رطل إلى مداره

انطلق صاروخ فالكون 9 من محطة كيب كانافيرال الفضائية...

مسلسل حكاية نرجس.. أبرز تطعيمات المواليد

أحداث الحلقة الخامسة من حكاية نرجس أظهر المشهد في الحلقة...

اجعل الأرز البني ضمن فطورك؛ فهو يمدك بالطاقة ويحافظ على استقرار سكر الدم

يوصي خبراء التغذية بإدراج الأرز البني ضمن وجبة الإفطار...

موظفو OpenAI وGoogle يؤيدون أنثروبيك في نزاعها مع وزارة الدفاع الأمريكية

دعم موظفي OpenAI وGoogle DeepMind لشركة Anthropic في الدعوى ضد البنتاجون

وقع أكثر من ثلاثين موظفًا من OpenAI وGoogle DeepMind على بيان قانوني يدعم موقف Anthropic ويعارض قرار الحكومة الأمريكية اعتبارها مخاطر في سلسلة التوريد، معتبرين أن القرار تعسفي وغير مبرر وقد يترك آثارًا سلبية على صناعة الذكاء الاصطناعي في الولايات المتحدة.

تشير المذكرة القانونية إلى أن تصنيف Anthropic كخطر في سلسلة التوريد يمثل استغلالاً غير مبرر للسلطة الحكومية، وتوقّعها عدد من العلماء والباحثين من قطاع الذكاء الاصطناعي، بينهم Jeff Dean، كبير العلماء في Google DeepMind، إضافة إلى آخرين، محذرين من تداعيات واسعة على مستقبل الصناعة في ظل المنافسة العالمية المتزايدة.

تعود جذور الخلاف إلى قرار وزارة الدفاع تصنيف Anthropic كمخاطر في سلسلة التوريد، وهو تصنيف عادةً ما يُستخدم في قضايا مرتبطة بدول معادية، بينما جادلت Anthropic بأنها لم ترغب في استخدام تقنياتها للمراقبة الجماعية للمواطنين أو في أنظمة قد تشغّل أسلحة مستقلة، بينما ترى البنتاجون أن لديها الحق في استخدام تقنيات الذكاء الاصطناعي لأي غرض قانوني دون قيود من قبل متعاقدين.

رفعت Anthropic دعاوي قضائية ضد وزارة الدفاع وعدة وكالات فدرالية أخرى للطعن في القرار، معتبرة أنه يضر بسمعتها ويقيّد قدرتها على العمل مع الجهات الحكومية.

وأشارت الوثيقة إلى أن إذا لم تكن وزارة الدفاع راضية عن شروط التعاقد مع Anthropic، فكان بإمكانها إلغاء العقد واللجوء إلى شركات أخرى لتوفير خدمات الذكاء الاصطناعي.

وذكر أن DoD وقع بالفعل اتفاقًا مع OpenAI بعد تصنيف Anthropic كمخاطر في سلسلة التوريد، وهو ما أثار اعتراضات داخلية بين بعض موظفي OpenAI بشأن طريقة التعامل مع منافس في قطاع الذكاء الاصطناعي.

يحذر البيان القانوني من أن مثل هذه الإجراءات قد تقوّض قدرة الولايات المتحدة على المنافسة في الذكاء الاصطayiف وتحد من الابتكار العلمي والصناعي، خاصة في ظل التنافس الدولي المتزايد، كما يرى أن تقييد النقاش المفتوح داخل مجتمع الذكاء الاصطناعي حول مخاطر وفوائد هذه التقنيات قد يحد من التطور.

أكّد الموقعون أن القيود الأخلاقية لاستخدام تقنيات الذكاء الاصطناعي تمثل مخاوف مشروعة وتستدعي ضوابط صارمة، وأن في غياب تشريعات واضحة، تشكّل القيود التقنية والتعاقدية إحدى وسائل الحماية من إساءة الاستخدام الكارثية للتكنولوجيا.

وأشار عدة الموقعين إلى أنهم شاركوا في رسائل مفتوحة تدعو وزارة الدفاع إلى سحب تصنيف “خطر سلسلة التوريد” عن Anthropic، وآمنوا قيادات شركاتهم باتخاذ موقف واضح لدعم Anthropic ورفض الاستخدام الأحادي من قبل الحكومة دون الالتزام بالضوابط الأخلاقية المتفق عليها.

spot_img
spot_imgspot_img

تابعونا على