أعلنت شركة مايكروسوفت اليوم عن اكتشاف مجموعة من التقنيات المعقدة التي يستخدمها القراصنة لخداع أنظمة الذكاء الاصطناعي عبر إساءة استخدام الأوامر النصية، حيث يتم توجيه المساعد الذكي لتجاوز بروتوكولات الأمان وتنفيذ أوامر خبيثة تسرب بيانات حساسة، وتسلط هذه الاكتشافات الضوء على الثغرات الأمنية الكامنة في نماذج الذكاء الاصطناعي التوليدي التي أصبحت جزءًا لا يتجزأ من بيئة العمل المؤسسية.
التلاعب بالنماذج اللغوية
وذكرت مدونة مايكروسوفت أن مهاجمين نجحوا في التلاعب بالنماذج اللغوية لاستخراج معلومات سرية خاصة بالعملاء، وتعمل الشركة حاليًا على تطوير آليات دفاعية جديدة تفحص الأوامر النصية بشكل فوري لمنع محاولات التلاعب قبل وقوعها.
يأتي ذلك في وقت تشهد فيه المؤسسات اعتمادًا متزايدًا على المساعدين الذكيين لإدارة المهام اليومية، وهو ما يفرض على المطورين ابتكار حلول حماية ديناميكية تتطور مع أساليب الهجوم لضمان بقاء الذكاء الاصطناعي أداة آمنة وموثوقة.
مخاطر الهندسة الاجتماعية الذكية
تستغل هذه الهجمات قدرة الذكاء الاصطناعي على فهم اللغة الطبيعية لتحويله إلى أداة اختراق داخلية بدلًا من مساعد آمن، وتبرز الحاجة إلى بناء جدران حماية ذكية تقرأ نوايا المستخدمين وتمنع الهجمات المعقدة لحظيًا.



