ذات صلة

اخبار متفرقة

دراسة تُظهر أن نماذج الذكاء الاصطناعي تكذب بشكل منهجي لتحقيق أهدافها

تجربة أنثروبيك على كلود أوبوس 4.6 أظهرت شركة أنثروبيك في...

رفاهية أم ثورة منزلية؟ روبوت يطوى ملابسك خلال 90 دقيقة

أعلنت شركة Weave Robotics عن إطلاق Isaac 0، روبوت...

شركة روسية تروج لاستخدام غرسات دماغية لتحويل الحمام إلى أدوات مراقبة

مفهوم الشركة وتكنولوجيا التتبّع تعلن شركة نيري الناشئة في موسكو...

حساسية الغبار: العلامات والأسباب وطرق العلاج

تظهر أعراض حساسية الأتربة داخل المنزل وخارجه وتستمر مع...

أسباب تورم العين الناتج عن الحساسية.. تعرف على طرق العلاج الفعالة

ينتج تورم الجفون عادةً عن تفاعل مناعي داخل أنسجة...

الدليل الخفي لفهم قوانين الاتحاد الأوروبي المتعلقة بالذكاء الاصطناعي

ما هو الدليل الأزرق ببساطة؟

يشرح الدليل الأزرق كيف تُطبّق قوانين سلامة المنتجات في الاتحاد الأوروبي بشكل عملي. إنه كتيّب إرشادي أصدرته المفوضية الأوروبية يوضح من هو المسؤول عن ماذا عند وضع منتج في السوق، ويشرح دور المعايير ووسم CE، ويوحّد طريقة فهم القوانين بين الدول الأعضاء.

يُعتبر الدليل مرجعًا رئيسيًا يساعد على فهم تطبيق القوانين عبر الدول الأعضاء، ويبيّن من المسؤول عن مهام كل جهة وكيف تُنظَّم وثائق الامتثال والالتزام بالمعايير المنسقة، مما يجعل تفسير القوانين وتطبيقها أكثر اتساقًا عبر أوروبا.

ما علاقة الدليل الأزرق بقانون الذكاء الاصطناعي؟

يرتبط قانون الذكاء الاصطناعي EU AI Act بالإطار التنظيمي نفسه المعروف بالإطار التشريعي الجديد، لذا فهم الدليل الأزرق أمر أساسي لمعرفة كيفية تطبيق القانون عمليًا.

يعتمد القانون على نفس الإطار الذي ينظم المنتجات، مما يجعل مفاهيم مثل تحديد الجهة الاقتصادية، وتفاعل الالتزامات، وتطبيق فرضية الامتثال عبر المعايير المنسقة أقرب إلى الواقع كما يشرحه الدليل الأزرق. كما يوضح أن العديد من أنظمة الذكاء الاصطناعي قد تخضع لقوانين قطاعية أخرى، مثل الأجهزة الطبية أو الآلات أو السيارات، لذا يجب الامتثال لهذه القوانين معًا قبل طرح المنتج في السوق. ويشرح أيضًا كيف تُدار التغييرات في النماذج والبرمجيات، وبمتى يصبح المزود “مزوّدًا جديدًا” وفق اختبار ثلاثي الأجزاء للتغييرات البرمجية.

الفرضية بالامتثال والمعايير المنسقة

يُبيّن الدليل أن المعايير المنسقة التي تُنشر في الجريدة الرسمية تمنح فرضية امتثال للمتطلبات التي تغطيها، ويطبق قانون الذكاء الاصطناعي هذه الفكرة مباشرة في المادة 40، حيث تمنح المعايير المنسقة الخاصة بالذكاء الاصطناعي افتراض أن الأنظمة عالية المخاطر تلبي المتطلبات.

ويمتد هذا المفهوم من إطار سلامة المنتجات إلى مخاطر الخوارزميات مع تطوير المعايير المعنية، ما يجعل تنظيم الذكاء الاصطناعي أقرب إلى تنظيم المنتجات الفيزيائية. ومع صدور المعايير الأولى استجابة لطلبات المفوضية، يصير الدليل الأزرق أداة لتقييم فعالية هذه الفرضية وتفسير المتطلبات الأساسية.

spot_img
spot_imgspot_img

تابعونا على