ذات صلة

اخبار متفرقة

ما الذي يحدث لجسمك إذا لم تنم لمدة 24 ساعة؟

تأثير السهر على الدماغ والجسد يدخل الجسم في حالة طوارئ...

التعرق الليلي المفرط: متى يتحول من علامة عابرة إلى إنذار صحي خطير؟

يبدأ التعرق الليلي المقلق عادة عندما تكون الحرارة عالية...

أضرار الشخير على صحتك قد لا تتوقعها.. ونصائح فعالة لنوم صحي

يُعَدّ الشخير ظاهرة ليلية شائعة قد يبدو كإزعاج بسيط،...

برج القوس: حظك اليوم الإثنين 2 فبراير 2026؛ تجنب الاستثمارات

أتمنى لك اليوم الاثنين 2 فبراير 2026 يومًا رائعًا...

سبب صادم وراء وفاة المدون أحمد مصطفى: كل ما تريد معرفته

أُعلن وفاة البلوجر أحمد مصطفى عن عمر يناهز 25...

باحثون يحذرون: نماذج الذكاء الاصطناعي مفتوحة المصدر عرضة للاستغلال الإجرامي

تشير دراسة مشتركة أُجريَت بواسطة شركتي الأمن السيبراني “سينتينل وان” و”سينسيس” إلى أن نماذج الذكاء الاصطناعي المفتوحة المصدر، ومنها نموذج “لاما” من Meta ونموذج “جِما” من Google DeepMind، قد تكون عرضة لاستغلال القراصنة والمجرمين، مما يفرض مخاطر أمنية عالمية متزايدة.

وتمتد الدراسة على فترة 293 يوماً، وركّزت على نشر نماذج مفتوحة المصدر عبر أداة “أولاما” التي تتيح تشغيل نسخ من النماذج، واطلعت على “أوامر النظام” في نحو ربع النماذج التي جرى فحصها، وتبيّن أن 7.5% منها قد تتيح أنشطة ضارة.

وأظهرت النتائج أن نحو 30% من الخوادم التي تشغّل هذه النماذج تقيم في الصين، في حين تقيم نحو 20% في الولايات المتحدة.

وأشار الباحثون إلى وجود آلاف النماذج المفتوحة المصدر، غير أن نسبة كبيرة من النماذج المستضافة على خوادم متصلة بالإنترنت تعود إلى نماذج “لاما” من Meta و”جِما” من Google DeepMind، مع رصد مئات الحالات التي جرى فيها إسقاط ضوابط الأمان عمدًا من هذه النماذج.

وصف خوان أندريس جيريرو سادي، المدير التنفيذي لأبحاث الاستخبارات والأمن في سينتينل وان، الوضع بأنه يشبه جبل جليد يتجاوز حجمه ما يتداوله القطاع في النقاشات حول ضوابط الأمان في مجال الذكاء الاصطناعي، مع غلبة الاستخدامات غير القانونية على بعضها رغم وجود تطبيقات مشروعة.

ولاحظت الدراسة نشرًا عامًا للنماذج عبر أداة “أولاما” التي تتيح تشغيل نسخ من نماذج الذكاء الاصطناعي، وتبيّن أن 7.5% من النماذج القابلة للتحليل قد تتيح أنشطة ضارة عند تشغيلها خارج الضوابط المعتادة.

كما أظهرت النتائج أن مسؤولية الإطلاق لا تقتصر على جهة واحدة، إذ ترى رايتشل آدامز، الرئيسة التنفيذية ومؤسسة “المركز العالمي لحوكمة الذكاء الاصطناعي”، أن المسؤولية تصبح مشتركة بين جميع أطراف المنظومة، بما في ذلك المختبرات المطوّرة، مع تأكيدها على ضرورة توقّع الأضرار المحتملة وتوثيق المخاطر وتوفير أدوات وإرشادات للحد منها، خاصة في ظل تفاوت قدرات إنفاذ القانون عالميًا.

وفي تعليقاته، لم تُطلق شركة Meta ردّاً مباشراً على أسئلة تتعلق بمسؤولية المطوّرين عن إساءة استخدام النماذج المفتوحة المصدر لاحقاً، لكنها أشارت إلى أدوات حماية لـ”لاما” ودليل “الاستخدام المسؤول” الخاص بالشركة.

أما رام شانكار سيفا كومار، قائد فريق “الريد تيم” للذكاء الاصطناعي في مايكروسوفت، فاعتبر أن النماذج المفتوحة تلعب دوراً مهماً في مجالات متعددة، لكنها قد تساء استعمالها من قبل جهات معادية إذا أُطلقت دون ضوابط أمان مناسبة، ولذلك تُجري مايكروسوفت تقييمات قبل الإطلاق لرصد المخاطر، خصوصاً في السيناريوهات المرتبطة بالإنترنت أو التشغيل الذاتي، وتتابع التهديدات الناشئة وأنماط سوء الاستخدام، مؤكداً أن الابتكار المفتوح المسؤول يتطلب التزاماً مشتركاً من المطورين والمشغّلين والباحثين وفرق الأمن.

المخاطر والتوصيات

تؤكد النتائج أن الاستخدامات المحتملة لهذه النماذج تتجاوز أطر الاستخدام المشروع لتشمل نشاطات ضارة كالتصيد وارتكاب الجرائم الإلكترونية ونشر محتوى ضار أو مضاد للمصداقية، إضافة إلى سرقة بيانات شخصية وعمليات احتيال ونشاطات تتعلق باستغلال الأطفال جنسياً في بعض الحالات.

تدعو الدراسة إلى تحمل مسؤولية مشتركة بين مختبرات التطوير ومشغّلي المنظومات والجهات التنظيمية والباحثين، وتأكيد وجود ضوابط أمان مناسبة، وتوفير أدوات وتوثيق مخاطر يسهّلون تقليل الأضرار المحتملة، مع مراعاة تفاوت القدرات التنظيمية عالمياً وتطور أساليب الاستغلال بصورة مستمرة.

spot_img
spot_imgspot_img

تابعونا على