أعلنت مايكروسوفت تطوير منهجية أمنية جديدة تهدف إلى حماية نماذج اللغات الكبيرة من تهديدات سيبرانية تعرف بـ”العملاء النائمين”.
وتتمثل هذه التهديدات في أكواد مخفية أو تعليمات تُزرع داخل النماذج أثناء مرحلة التدريب لتبقى خاملة حتى يتم تفعيلها بواسطة كلمة مرور أو سياق محدد، ما قد يؤدي إلى تسريب بيانات حساسة أو تنفيذ هجمات برمجية خبيثة ضد المستخدمين والمؤسسات.
وذكرت تقارير AI News أن الطريقة الجديدة تعتمد على تحليل سلوك النموذج في بيئات معزلة ومحاكاة آلاف السيناريوهات لاستثارة أي استجابات غير طبيعية، ما يتيح للمطورين رصد نمط دقيق يشير إلى وجود أبواب خلفية يمكن تطهيرها قبل الإطلاق التجاري أو المؤسسي، وهي خطوة ضرورية في ظل الاعتماد المتزايد على الذكاء الاصطناعي في البنية التحتية الحساسة.
وتندرج هذه الخطوة ضمن استراتيجية “الأمن أولًا” التي تتبناها شركات التقنية في عام 2026 لمواجهة تحديات الذكاء الاصطناعي الهجومي، ومع تطور قدرات النماذج على كتابة الأكواد وتطوير البرمجيات، أصبحت الثقة في سلامة هذه النماذج حجر الزاوية للاقتصاد الرقمي العالمي، حيث تسعى مايكروسوفت لضمان أن تكون أدواتها مثل “كوبايلوت” محصنة تمامًا ضد أي اختراقات من قبل جهات فاعلة معادية.
آليات الكشف عن الثغرات المخفية
تستخدم التقنية الجديدة نماذج ذكاء اصطناعي رقابية تفحص الأوزان العصبية والروابط داخل النموذج الضخم لرصد أي “تكتلات” غير منطقية قد تشير إلى تعليمات مشروطة مخفية، وتساعد هذه الأداة الشركات على تبني الذكاء الاصطناعي في قطاعات التمويل والدفاع دون الخوف من تشغيل برمجيات خبيثة داخلية قد تلتف على بروتوكولات الأمن التقليدية.



