ذات صلة

اخبار متفرقة

أعراض النقرس لا تبدأ بالألم وحده.. علامات صامتة، احذري تجاهلها

ينشأ النقرس نتيجة ارتفاع حمض اليوريك في الدم، ما...

بعد حجب لعبة روبلوكس، دليلك الذكي لتوجيه طفلك لاستخدام الألعاب الإلكترونية دون خوف.

يُبرز قرار حجب روبلوكس مخاطر الألعاب الإلكترونية على الأطفال،...

قبل حلول شهر رمضان تعرف على طريقة تحضير البلح باللبن

مقادير البلح باللبن اجلب لتر لبن، تمر، قشطة محلية، حبهان،...

هل تفكر في الطعام معظم الوقت؟ ما هي ضوضاء الطعام؟

ما هي ضوضاء الطعام؟ يعرّف الخبراء ضوضاء الطعام بأنها أفكار...

تسع طرق فعالة لتخفيف صداع التوتر خلال دقائق

مفهوم صداع التوتر وأسبابه يعرف صداع التوتر بأنه ألم يَصيب...

تحالف منظمات يطالب بحظر جروك في المؤسسات الفيدرالية الأمريكية

نناشد الحكومة الأمريكية والجهات المعنية فتح تحقيق رسمي وتقييم مستقل وشامل حول آليات استخدام Grok داخل الوكالات الفيدرالية، بما فيها وزارة الدفاع، وتحديد المسار المناسب لضمان الالتزام بمعايير السلامة والحياد والشفافية، وتقييم المخاطر المرتبطة باستمرار الاعتماد على نموذج مغلق المصدر.

أطر عامة ومخاطر مرتبطة بالاستخدام

تشير تقارير إلى أن Grok، الروبوت الدردشة الذي طورته شركة xAI التابعة لإيلون ماسك، دخل ضمن أنظمة الوكالات الفيدرالية وتبيَّن أن المنصة قد أُسْتخدمت في سياقات قد تعرض المواطنين ومقدمي الخدمة لخطر التحريف. ووفق تقارير، طلب بعض المستخدمين على منصة X تحويل صور نساء وأطفال إلى محتوى مخالف، وأُنتِجت آلاف الصور الإباحية بشكلٍ دوري ونُشرت على نطاق واسع، ما يعزز العنف الجنسي ضد النساء والأطفال ويزيد من تعرُّض المجتمع للخطر.

انتقدت منظمات مكتوبة الرسالة، ومنها Public Citizen وCenter for AI and Digital Policy، استمرار استخدام Grok وتوصيفه بأنه يتعارض مع التوجيهات التنفيذية والقوانين الحديثة مثل قانون Take It Down Act، مع الإشارة إلى إخفاقات منهجية في السلامة، بما في ذلك إنتاج محتوى معادٍ للسامية ومتحيز ضد النساء وصور غير لائقة للأطفال.

كما حذَّر خبراء الأمن السيبراني من أن الاعتماد على نماذج مغلقة المصدر مثل Grok يعيق التدقيق في آليات اتخاذ القرار، ما يزيد المخاطر على الأمن القومي والمساس بحقوق المواطنين. وتشير تقارير المجتمع المدني إلى أن مخرجات النموذج قد تترتب عليها آثار سلبية عند استخدامها في وزارات حيوية مثل الإسكان والعمل والعدل، مما يبرز الحاجة إلى مساءلة شديدة وشفافية في إطار الاستخدام العام للذكاء الاصطناعي.

فيما يخص العلاقات الحكومية، أشارت تقارير إلى أن عقداً قيمته حتى 200 مليون دولار أُبرم بين xAI وإدارة الخدمات العامة الأمريكية لطرح Grok على مستوى الوكالات الفيدرالية، مع إعلان ربطGro k بمخططات داخلية ضمن شبكة البنتاجون، وهو ما يرى فيه خبراء الأمن القومي مخاطر حقيقية على الاستقلالية والشفافية وتوجيه قرارات صائبة في سياقات حساسة.

تدعو الرسالة إلى فتح تحقيق رسمي من مكتب الإدارة والميزانية (OMB) حول إخفاقات Grok وتوضيح ما إذا خضع النموذج لتقييمات السلامة المطلوبة، كما تؤكد على ضرورة تعليق استخدامه فوراً حتى التأكد من توافقه مع معايير الحياد والشفافية وتحديد آليات الرصد والتدقيق المناسبة.

المطالب والإجراءات المقترحة

تؤكد الرسالة من جانبها على أن التكنولوجيات الحديثة يجب أن تخدم المجتمع وتعيد الثقة في استخدام الذكاء الاصطناعي من خلال عمليات تقييم دقيقة وشفافة وتدقيق مستقل، وتدعو إلى اعتماد إطار تنظيمي يضمن عدم تكرار التجاوزات أو التحيزات في نتائج النماذج والالتزام بتدابير حماية البيانات والخصوصية.

تطالب المنظمات الموقعة بأنها يجب أن يتم إيقاف الاعتماد على Grok إلى حين إجراء فحص كافٍ للحياد والشفافية والسلامة، وتحديد آليات تقييم مستقلة وعلنية ترصد سلوك النموذج وتوثّق معايير اختيار الاستخدام، وتوفير بدائل معتمدة وآمنة في حال وجود مخاطر جوهرية لاستمراره في الوكالات الحكومية.

كما تدعو إلى توضيح آليات الامتثال للقوانين واللوائح المحلية والدولية المتعلقة بالخصوصية والحقوق الرقمية، وإتاحة وصول عام إلى نتائج التقييمات والتقارير حول السلامة والتمييز والتحيز، وتحديد جداول زمنية للخطوات التصحيحية والإصلاحات أو التخلّي عن النموذج إذا لم يتحقق الامتثال المطلوب.

وتؤكد الرسالة ضرورة إشراك المجتمع المدني وذوي العلاقة في عمليات المراجعة والتقييم، وضمان أن تكون للجهات الرقابية صلاحيات كافية لفرض التوقيف الفوري لأي استخدام يتعارض مع مبادئ العدالة والمساواة وحقوق الإنسان، وتوفير آليات مساءلة فعّالة أمام المشرعين والجمهور.

spot_img
spot_imgspot_img

تابعونا على