ذات صلة

اخبار متفرقة

كيف يؤثر الإفراط في استهلاك السكر على صحة القلب والدماغ؟

يؤثر السكر في صحة القلب بشكل مباشر وغير مباشر،...

6 فواكه تحمي من الشيخوخة وتقاوم الالتهاب

ترتكز الأبحاث الطبية الحديثة على دور الأطعمة الطبيعية في...

طرق طبيعية للسيطرة على حب الشباب من نظامك الغذائي

يرتبط ظهور حب الشباب بنظام غذائي يؤثر في مستوى...

أبل تختبر عدسة بفتحة متغيرة وترقية كاميرا التقريب في iPhone 18 Pro

تُشير التوقعات إلى أن آبل تختبر تحسّين رئيسيين في...

تخطط Epic Games لإطلاق متجرها على Xbox الجيل الجديد منذ اليوم الأول

تخطط شركة Epic Games لإتاحة متجر Epic Games Store...

مايكروسوفت تكشف عن اختراق «العملاء النائمين» في نماذج الذكاء الاصطناعي

أعلنت مايكروسوفت تطوير منهجية أمنية جديدة تهدف إلى حماية نماذج اللغات الكبيرة من تهديدات سيبرانية تعرف بـ”العملاء النائمين”.

وتتمثل هذه التهديدات في أكواد مخفية أو تعليمات تُزرع داخل النماذج أثناء مرحلة التدريب لتبقى خاملة حتى يتم تفعيلها بواسطة كلمة مرور أو سياق محدد، ما قد يؤدي إلى تسريب بيانات حساسة أو تنفيذ هجمات برمجية خبيثة ضد المستخدمين والمؤسسات.

وذكرت تقارير AI News أن الطريقة الجديدة تعتمد على تحليل سلوك النموذج في بيئات معزلة ومحاكاة آلاف السيناريوهات لاستثارة أي استجابات غير طبيعية، ما يتيح للمطورين رصد نمط دقيق يشير إلى وجود أبواب خلفية يمكن تطهيرها قبل الإطلاق التجاري أو المؤسسي، وهي خطوة ضرورية في ظل الاعتماد المتزايد على الذكاء الاصطناعي في البنية التحتية الحساسة.

وتندرج هذه الخطوة ضمن استراتيجية “الأمن أولًا” التي تتبناها شركات التقنية في عام 2026 لمواجهة تحديات الذكاء الاصطناعي الهجومي، ومع تطور قدرات النماذج على كتابة الأكواد وتطوير البرمجيات، أصبحت الثقة في سلامة هذه النماذج حجر الزاوية للاقتصاد الرقمي العالمي، حيث تسعى مايكروسوفت لضمان أن تكون أدواتها مثل “كوبايلوت” محصنة تمامًا ضد أي اختراقات من قبل جهات فاعلة معادية.

آليات الكشف عن الثغرات المخفية

تستخدم التقنية الجديدة نماذج ذكاء اصطناعي رقابية تفحص الأوزان العصبية والروابط داخل النموذج الضخم لرصد أي “تكتلات” غير منطقية قد تشير إلى تعليمات مشروطة مخفية، وتساعد هذه الأداة الشركات على تبني الذكاء الاصطناعي في قطاعات التمويل والدفاع دون الخوف من تشغيل برمجيات خبيثة داخلية قد تلتف على بروتوكولات الأمن التقليدية.

spot_img
spot_imgspot_img

تابعونا على