ذات صلة

اخبار متفرقة

الذكاء الاصطناعي يعيد تشكيل قواعد التوظيف: تحذير جديد من سام ألتمان

أشار سام ألتمان، الرئيس التنفيذي لشركة OpenAI، إلى أن...

ناسا تختبر محركًا نوويًا ثوريًا يعجّل الرحلات إلى أعماق الفضاء

نجاح اختبارات الدفع النووي الحراري يفتح باباً لمهمات أسرع...

هل ستتجنب آبل رفع أسعار iPhone 18؟ تسريبات جديدة تطمئن المستخدمين

توجه آبل لتثبيت السعر الأساسي يتجهُ المسار في آبل لتثبيت...

5 أطعمة لا ينبغي تناولها مع الحليب لأنها تسبب مشاكل هضمية

يُعد الحليب غذاءً كاملاً ومغذيًا ومهدئًا، ويُقدَّم خاصةً للأطفال...

ما الذي يكشفه لون أظافرك عن صحتك، ومتى ينبغي عليك زيارة الطبيب؟

لون الأظافر وصحتها: علامات تحذيرية لا يجب تجاهلها تشير الأظافر...

الصين تكشف النقاب عن DeepSeek R1 Safe AI .. كل ما تحتاج معرفته

أُعلن عن إصدارٍ جديد من DeepSeek يحمل اسم DeepSeek-R1-Safe، وهو نسخة مُعدلة تركز على الامتثال الحكومي وتقليل مخاطر التعرض للمحتوى السياسي الحسّاس وفقاً لتقرير رويترز.

ولم تُطوِّر هذه النسخة من الصفر، بل تعاونت هواوي مع باحثين من جامعة تشجيانغ لإعادة تدريب نموذج DeepSeek-R1 المفتوح المصدر باستخدام 1000 رقاقة Ascend AI خاصة بالشركة.

وتهدف الجهود إلى إدراج ضمانات أكثر صرامة في النظام دون المساس الكبير بالأداء، وتؤكد هواوي أن الإصدار المُحدَّث يفقد نحو 1% فقط من قدراته الأصلية مع تعزيز مقاومته أمام خطاب سام ومحتوى سياسي حساس والتحريض على أنشطة غير قانونية.

وبالمحصلة، تزعم هواوي أن DeepSeek-R1-Safe ينجح في تجنّب المواضيع الحساسة سياسياً في التفاعلات العادية بنسب تقارب 100%، إلا أن النتائج ليست مطلقة؛ فعند استخدام أساليب مثل لعب الأدوار أو إخفاء النوايا عبر تعليمات غير مباشرة، ينخفض معدل النجاح إلى نحو 40%.

إطار الامتثال والجهود التنظيمية

يعكس ذلك، كما تؤكد التقارير، جهود الصين في تنظيم الذكاء الاصطناعي بدقة، إذ تُلزم السلطات جميع الأنظمة الموجهة للجمهور بالامتثال للقيم الوطنية وبقيود التعبير، ويُظهر مسار DeepSeek-R1-Safe تشابهاً مع روبوت الدردشة إرني من بايدو الذي يحظر الأسئلة السياسية الداخلية للصين ويتبع مساراً مماثاً في الامتثال.

حتى الشركات الأمريكية اعترفت بتأثير الثقافة في نماذجها؛ فقد صرّحت OpenAI بأن ChatGPT يميل إلى وجهات النظر الغربية، وهو جدل حول مدى وجود ذكاء اصطناعي محايد حقاً أم أنه يعكس تحيزات المجتمعات التي دُرِّبت فيها النماذج.

وفي جانب السياسة الأمريكية، اتخذت الولايات المتحدة خطوات لضبط اتساق نظم الذكاء الاصطناعي؛ ففي إطار خطة عمل الذكاء الاصطناعي التي كشفت عنها الحكومة مطلع هذا العام، تشترط الخطة أن تكون أي نماذج تتفاعل مع الوكالات الحكومية محايدة وغير متحيزة، مع الإشارة إلى أن تعريف الحياد يحمل طابعاً سياسياً، إذ تقضي الإرشادات التنفيذية بأن النماذج المؤهلة ترفض ما وُصف بـ”العقيدة المناخية المتطرفة” و”التنوع والشمول” و”نظرية العرق النقدية” و”التحول الجنسي” و”التحيز اللاواعي” و”التقاطعية” و”العنصرية المؤسسية”.

spot_img
spot_imgspot_img

تابعونا على