كشفَت شركة مايكروسوفت اليوم عن اكتشاف مجموعة من التقنيات المعقدة التي يستخدمها القراصنة لخداع أنظمة الذكاء الاصطناعي، إذ تعتمد هذه الهجمات على إساءة استخدام الأوامر النصية لتوجيه المساعد الذكي لتجاوز بروتوكولات الأمان وتنفيذ أوامر خبيثة تسرب بيانات حساسة، وتسلط هذه الاكتشافات الضوء على الثغرات الأمنية الكامنة في نماذج الذكاء الاصطناعي التوليدي التي أصبحت جزءًا لا يتجزأ من بيئة العمل المؤسسية.
التلاعب بالنماذج اللغوية
ووفقًا لمدونة مايكروسوفت، وثقت الشركة عدة هجمات ناجحة تمكن فيها المهاجمون من التلاعب بالنماذج اللغوية لاستخراج معلومات سرية تخص العملاء، وتعمل مايكروسوفت حاليًا على تطوير آليات دفاعية جديدة قادرة على تحليل الأوامر النصية بشكل فوري لمنع أي محاولات تلاعب أو استغلال قبل وقوعها.
يأتي هذا الإعلان في وقت حرج يشهد اعتمادًا متزايدًا على المساعدين الأذكياء في إدارة المهام اليومية للشركات والأفراد، وهو سياق أمني يفرض على المطورين ابتكار حلول حماية ديناميكية تتطور مع تطور أساليب الهجوم، لضمان بقاء الذكاء الاصطناعي أداة آمنة وموثوقة بعيدًا عن أيدي المتسللين ومجرمي الإنترنت.
مخاطر الهندسة الاجتماعية الذكية
تستغل هذه الهجمات قدرة الذكاء الاصطناعي على فهم اللغة الطبيعية لتحويله إلى أداة اختراق داخلي بدلًا من أن يكون مساعدًا آمنًا، وتعكس جهود مايكروسوفت حاجة الصناعة الملحة لبناء جدران حماية ذكية تقرأ نوايا المستخدمين وتمنع الهجمات المعقدة لحظيًا.



