أُعلن عن إصدارٍ جديد من DeepSeek يحمل اسم DeepSeek-R1-Safe، وهو نسخة مُعدلة تركز على الامتثال الحكومي وتقليل مخاطر التعرض للمحتوى السياسي الحسّاس وفقاً لتقرير رويترز.
ولم تُطوِّر هذه النسخة من الصفر، بل تعاونت هواوي مع باحثين من جامعة تشجيانغ لإعادة تدريب نموذج DeepSeek-R1 المفتوح المصدر باستخدام 1000 رقاقة Ascend AI خاصة بالشركة.
وتهدف الجهود إلى إدراج ضمانات أكثر صرامة في النظام دون المساس الكبير بالأداء، وتؤكد هواوي أن الإصدار المُحدَّث يفقد نحو 1% فقط من قدراته الأصلية مع تعزيز مقاومته أمام خطاب سام ومحتوى سياسي حساس والتحريض على أنشطة غير قانونية.
وبالمحصلة، تزعم هواوي أن DeepSeek-R1-Safe ينجح في تجنّب المواضيع الحساسة سياسياً في التفاعلات العادية بنسب تقارب 100%، إلا أن النتائج ليست مطلقة؛ فعند استخدام أساليب مثل لعب الأدوار أو إخفاء النوايا عبر تعليمات غير مباشرة، ينخفض معدل النجاح إلى نحو 40%.
إطار الامتثال والجهود التنظيمية
يعكس ذلك، كما تؤكد التقارير، جهود الصين في تنظيم الذكاء الاصطناعي بدقة، إذ تُلزم السلطات جميع الأنظمة الموجهة للجمهور بالامتثال للقيم الوطنية وبقيود التعبير، ويُظهر مسار DeepSeek-R1-Safe تشابهاً مع روبوت الدردشة إرني من بايدو الذي يحظر الأسئلة السياسية الداخلية للصين ويتبع مساراً مماثاً في الامتثال.
حتى الشركات الأمريكية اعترفت بتأثير الثقافة في نماذجها؛ فقد صرّحت OpenAI بأن ChatGPT يميل إلى وجهات النظر الغربية، وهو جدل حول مدى وجود ذكاء اصطناعي محايد حقاً أم أنه يعكس تحيزات المجتمعات التي دُرِّبت فيها النماذج.
وفي جانب السياسة الأمريكية، اتخذت الولايات المتحدة خطوات لضبط اتساق نظم الذكاء الاصطناعي؛ ففي إطار خطة عمل الذكاء الاصطناعي التي كشفت عنها الحكومة مطلع هذا العام، تشترط الخطة أن تكون أي نماذج تتفاعل مع الوكالات الحكومية محايدة وغير متحيزة، مع الإشارة إلى أن تعريف الحياد يحمل طابعاً سياسياً، إذ تقضي الإرشادات التنفيذية بأن النماذج المؤهلة ترفض ما وُصف بـ”العقيدة المناخية المتطرفة” و”التنوع والشمول” و”نظرية العرق النقدية” و”التحول الجنسي” و”التحيز اللاواعي” و”التقاطعية” و”العنصرية المؤسسية”.



