ذات صلة

اخبار متفرقة

سبب صادم لوفاة المدون أحمد مصطفى.. كل ما تود معرفته

أعلن خبر وفاة البلوجر أحمد مصطفى عن عمر يناهز...

بعد تداول أنباء حجبها.. كل ما تود معرفته عن لعبة روبلكس

ما هي لعبة روبلكس؟ يعرّف Roblox كعالم افتراضي يتغير باستمرار...

هذه هي أول علامة تحذيرية لفشل القلب، فانتبه.

الإغماء وفشل القلب: العلاقة الأساسية يحدث الإغماء عندما يؤدي انخفاض...

ما الذي يحدث لجسمك عند عدم النوم لمدة 24 ساعة؟

يدخل الجسم في حالة طوارئ حقيقية خلال 24 ساعة...

التعرق الليلي المفرط: متى يتحول من علامة عابرة إلى إنذار صحي خطير؟

يحدث التعرق الليلي المقلق عندما يستيقظ الشخص ليجد أن...

باحثون يحذرون من أن نماذج الذكاء الاصطناعي المفتوحة المصدر معرضة للاستغلال الإجرامي.

تشير دراسة مشتركة أجرتها شركتا الأمن السيبراني “سينتينل وان” و”سينسيس” إلى أن نماذج الذكاء الاصطناعي مفتوحة المصدر، بما في ذلك نموذج “لاما” من ميتا ونموذج “جِما” من جوجل ديب مايند، قد تكون عرضة للاستخدام من قبل القراصنة والمجرمين، ما يشكل مخاطر أمنية عالمية متزايدة.

يمكن للقراصنة بسهولة السيطرة على أجهزة الحاسوب التي تشغّل هذه النماذج خارج القيود والضوابط التي تفرضها منصات الذكاء الاصطناعي الكبرى، واستخدامها في تنفيذ أنشطة غير قانونية مثل حملات البريد المزعج، وإنشاء محتوى تصيدي، ونشر حملات تضليل إعلامي، مع تجاوز بروتوكولات الأمان المعتمدة.

الخلفية والنتائج الأساسية

وأظهرت الدراسة التي امتدت 293 يوماً حجم الاستخدامات غير المشروعة المحتملة لآلاف النماذج مفتوحة المصدر المنتشرة على الإنترنت.

وشملت هذه الاستخدامات أنشطة قرصنة وخطاب كراهية ومضايقات، ومحتوى عنيف أو دموي، وسرقة بيانات شخصية، وعمليات احتيال ونصب، بل وحتى في بعض الحالات مواد تتعلق بالاستغلال الجنسي للأطفال.

وأشارت النتائج إلى أن نسبة كبيرة من النماذج المستضافة عبر الإنترنت تخص نماذج “لاما” من ميتا و”جِما” من جوجل ديب مايند، مع رصد مئات الحالات التي أزيلت فيها ضوابط أمان من هذه النماذج عمدًا.

التوزيع والتقييم والردود المؤسسية

وقال خوان أندريس جيريرو سادي، المدير التنفيذي لأبحاث الاستخبارات والأمن في “سينتينل وان”، إن النقاشات حول ضوابط الأمان تتجاهل فائض القدرة التشغيلية الذي يمكن استغلاله.

حللت الدراسة عمليات نشر عامة لنماذج لغوية مفتوحة المصدر تعمل عبر أداة “أولاما” التي تتيح للأفراد والمؤسسات تشغيل نسخهم الخاصة من نماذج الذكاء الاصطناعي، وتمكن الباحثون من الاطلاع على “أوامر النظام” وهي التعليمات التي تحدد سلوك النموذج في نحو ربع النماذج التي تمت دراستها، وخلصوا إلى أن 7.5% منها قد تتيح أنشطة ضارة.

كما أظهرت النتائج أن نحو 30% من الخوادم التي تشغّل هذه النماذج تقع في الصين، بينما يوجد نحو 20% منها في الولايات المتحدة.

من جانبها، قالت رايتشل آدامز، الرئيسة التنفيذية ومؤسسة “المركز العالمي لحوكمة الذكاء الاصطناعي”، إن المسؤولية بعد إطلاق النماذج المفتوحة “تصبح مشتركة بين جميع أطراف المنظومة، بما في ذلك المختبرات المطوّرة”.

وأضافت أن المختبرات “ليست مسؤولة عن كل إساءة استخدام لاحقة، لكنها تتحمل واجباً مهماً في توقّع الأضرار المحتملة، وتوثيق المخاطر، وتوفير أدوات وإرشادات للحد منها، خاصة في ظل تفاوت قدرات إنفاذ القوانين عالمياً”.

وفي تعليق مقتضب، امتَنعت “ميتا” عن الرد على أسئلة تتعلق بمسؤولية المطورين عن إساءة الاستخدام للنماذج المفتوحة المصدر، لكنها أشارت إلى أدوات حماية “لاما” ودليل “الاستخدام المسؤول” الخاص بالشركة.

بدوره، قال رام شانكار سيفا كومار، قائد فريق “ريد تيم” للذكاء الاصطناعي في “مايكروسوفت”، إن الشركة ترى أن النماذج مفتوحة المصدر “تلعب دوراً مهماً في مجالات عدة”، لكنها تدرك في الوقت ذاته أن هذه النماذج “قد تُساء استخدامها من قبل جهات معادية إذا أُطلقت دون ضوابط أمان مناسبة”.

وأوضح أن “مايكروسوفت” تجري تقييمات قبل الإطلاق لرصد المخاطر، خاصة في السيناريوهات المتصلة بالإنترنت أو التشغيل الذاتي، كما تراقب التهديدات الناشئة وأنماط سوء الاستخدام، مؤكداً أن “الابتكار المفتوح المسؤول يتطلب التزاماً مشتركاً من المطورين والمشغّلين والباحثين وفرق الأمن”.

spot_img
spot_imgspot_img

تابعونا على