طورت مايكروسوفت منهجية أمنية جديدة تهدف إلى حماية نماذج اللغات الكبيرة من التهديدات السيبرانية المعروفة باسم “العملاء النائمين” (Sleeper Agents)، وهي أكواد أو تعليمات مخفية تُزرع داخل النموذج أثناء التدريب وتبقى خاملة حتى تُفعِّلها كلمة مرور أو سياق محدد، مما قد يؤدي إلى تسريبات حساسة أو تنفيذ هجمات برمجية خبيثة ضد المستخدمين والمؤسسات.
تعتمد الطريقة الجديدة على تحليل سلوك النموذج في بيئات معزلة ومحاكاة آلاف السيناريوهات لاستثارة استجابات غير طبيعية، وقد أظهرت النتائج وجود أنماط دقيقة تدل على وجود هذه الأبواب الخلفية، وهو ما يمكّن المطورين من تنظيف النماذج قبل طرحها للاستخدام التجاري أو المؤسسي، وهي خطوة ضرورية في ظل الاعتماد المتزايد على الذكاء الاصطناعي في البنية التحتية الحساسة.
وتُعد هذه الخطوة جزءًا من استراتيجية “الأمن أولاً” التي تتبناها شركات التقنية في عام 2026 لمواجهة تحديات الذكاء الاصطناعي الهجومي، فمع تطور قدرة النماذج على كتابة الأكواد وتطوير البرمجيات تصبح الثقة في سلامة هذه النماذج حجر الزاوية للاقتصاد الرقمي، حيث تسعى مايكروسوفت لضمان أن تكون أدواتها مثل كوبايلوت محصنة ضد أي اختراقات من قبل جهات فاعلة معادية.
آليات الكشف عن الثغرات المخفية
تستخدم التقنية نماذج ذكاء اصطناعي رقابية تفحص أوزان وروابط النموذج الكبير لرصد أي “تكتلات” غير منطقية قد تشير إلى تعليمات مشروطة مخفية، وتساعد هذه الأداة الشركات على تبني الذكاء الاصطناعي في قطاعات التمويل والدفاع دون الخوف من برمجيات خبيثة داخلية قد تلتف على بروتوكولات الأمن التقليدية.



