ذات صلة

اخبار متفرقة

برج القوس.. حظك اليوم الاثنين 2 فبراير 2026: تجنّب الاستثمارات

يتميّز مواليد برج القوس بالتفاؤل والمحبة للمغامرة والعاطفة بطبعها،...

سبب صادم وراء وفاة البلوجر أحمد مصطفى.. كل ما تريد معرفته

أعلن خبر وفاته وهو في عمر 25 عامًا بعد...

كل ما تود معرفته عن لعبة روبلكس بعد تداول أنباء حجبها

ما هي لعبة روبلكس؟ تقدم Roblox عالماً افتراضياً يتسم بالتغير...

السعال الشتوي المستمر: متى يكون غير ضاراً ومتى يجب زيارة الطبيب؟

لماذا يزداد السعال في فصل الشتاء؟ يزيد برودة الطقس ونقص...

كيف يؤثر تناول الطعام بسرعة على صحة الكبد؟ نصائح للوقاية

لماذا تؤثر سرعة تناول الطعام على صحة الكبد والهضم ينبغي...

باحثون يحذرون: نماذج الذكاء الاصطناعي مفتوحة المصدر عرضة للاستغلال الإجرامي

تشير دراسة مشتركة أُجريَت بواسطة شركتي الأمن السيبراني “سينتينل وان” و”سينسيس” إلى أن نماذج الذكاء الاصطناعي المفتوحة المصدر، ومنها نموذج “لاما” من Meta ونموذج “جِما” من Google DeepMind، قد تكون عرضة لاستغلال القراصنة والمجرمين، مما يفرض مخاطر أمنية عالمية متزايدة.

وتمتد الدراسة على فترة 293 يوماً، وركّزت على نشر نماذج مفتوحة المصدر عبر أداة “أولاما” التي تتيح تشغيل نسخ من النماذج، واطلعت على “أوامر النظام” في نحو ربع النماذج التي جرى فحصها، وتبيّن أن 7.5% منها قد تتيح أنشطة ضارة.

وأظهرت النتائج أن نحو 30% من الخوادم التي تشغّل هذه النماذج تقيم في الصين، في حين تقيم نحو 20% في الولايات المتحدة.

وأشار الباحثون إلى وجود آلاف النماذج المفتوحة المصدر، غير أن نسبة كبيرة من النماذج المستضافة على خوادم متصلة بالإنترنت تعود إلى نماذج “لاما” من Meta و”جِما” من Google DeepMind، مع رصد مئات الحالات التي جرى فيها إسقاط ضوابط الأمان عمدًا من هذه النماذج.

وصف خوان أندريس جيريرو سادي، المدير التنفيذي لأبحاث الاستخبارات والأمن في سينتينل وان، الوضع بأنه يشبه جبل جليد يتجاوز حجمه ما يتداوله القطاع في النقاشات حول ضوابط الأمان في مجال الذكاء الاصطناعي، مع غلبة الاستخدامات غير القانونية على بعضها رغم وجود تطبيقات مشروعة.

ولاحظت الدراسة نشرًا عامًا للنماذج عبر أداة “أولاما” التي تتيح تشغيل نسخ من نماذج الذكاء الاصطناعي، وتبيّن أن 7.5% من النماذج القابلة للتحليل قد تتيح أنشطة ضارة عند تشغيلها خارج الضوابط المعتادة.

كما أظهرت النتائج أن مسؤولية الإطلاق لا تقتصر على جهة واحدة، إذ ترى رايتشل آدامز، الرئيسة التنفيذية ومؤسسة “المركز العالمي لحوكمة الذكاء الاصطناعي”، أن المسؤولية تصبح مشتركة بين جميع أطراف المنظومة، بما في ذلك المختبرات المطوّرة، مع تأكيدها على ضرورة توقّع الأضرار المحتملة وتوثيق المخاطر وتوفير أدوات وإرشادات للحد منها، خاصة في ظل تفاوت قدرات إنفاذ القانون عالميًا.

وفي تعليقاته، لم تُطلق شركة Meta ردّاً مباشراً على أسئلة تتعلق بمسؤولية المطوّرين عن إساءة استخدام النماذج المفتوحة المصدر لاحقاً، لكنها أشارت إلى أدوات حماية لـ”لاما” ودليل “الاستخدام المسؤول” الخاص بالشركة.

أما رام شانكار سيفا كومار، قائد فريق “الريد تيم” للذكاء الاصطناعي في مايكروسوفت، فاعتبر أن النماذج المفتوحة تلعب دوراً مهماً في مجالات متعددة، لكنها قد تساء استعمالها من قبل جهات معادية إذا أُطلقت دون ضوابط أمان مناسبة، ولذلك تُجري مايكروسوفت تقييمات قبل الإطلاق لرصد المخاطر، خصوصاً في السيناريوهات المرتبطة بالإنترنت أو التشغيل الذاتي، وتتابع التهديدات الناشئة وأنماط سوء الاستخدام، مؤكداً أن الابتكار المفتوح المسؤول يتطلب التزاماً مشتركاً من المطورين والمشغّلين والباحثين وفرق الأمن.

المخاطر والتوصيات

تؤكد النتائج أن الاستخدامات المحتملة لهذه النماذج تتجاوز أطر الاستخدام المشروع لتشمل نشاطات ضارة كالتصيد وارتكاب الجرائم الإلكترونية ونشر محتوى ضار أو مضاد للمصداقية، إضافة إلى سرقة بيانات شخصية وعمليات احتيال ونشاطات تتعلق باستغلال الأطفال جنسياً في بعض الحالات.

تدعو الدراسة إلى تحمل مسؤولية مشتركة بين مختبرات التطوير ومشغّلي المنظومات والجهات التنظيمية والباحثين، وتأكيد وجود ضوابط أمان مناسبة، وتوفير أدوات وتوثيق مخاطر يسهّلون تقليل الأضرار المحتملة، مع مراعاة تفاوت القدرات التنظيمية عالمياً وتطور أساليب الاستغلال بصورة مستمرة.

spot_img
spot_imgspot_img

تابعونا على