تشير Zscaler في تقريرها السنوي لعام 2026 إلى أن الهجمات المدفوعة بالذكاء الاصطناعي تتحرك بسرعة الآلة، مما يجعل الدفاعات البشرية والتقليدية عاجزة عن الاستجابة في الوقت المناسب.
وأكد التقرير أن المهاجمين، سواء كانوا عصابات إجرامية أو مدعومين من دول، يستخدمون الذكاء الاصطناعي لأتمتة عمليات التسلل واختراق الأنظمة في أقل من 16 دقيقة، وهو زمن قياسي يتطلب تحولاً جذرياً في استراتيجيات الحماية الرقمية.
وبحسب TechNewsWorld، الذي حلل أكثر من تريليون معاملة رقمية، وجد أن 40% من استخدام الموظفين للذكاء الاصطناعي يتضمن مشاركة بيانات مؤسسية حساسة دون رقابة كافية، مع زيادة الفجوة بين قدرات المهاجمين وسرعة استجابة فرق الأمن، وهو ما يدفع الشركات لاعتماد أنظمة دفاعية تعتمد على AI للكشف المبكر وتحييد التهديدات بشكل استباقي وفوري.
ويشير ThreatLabz 2026 إلى أن تبني الشركات للذكاء الاصطناعي يتجاوز قدرتها على حماية أنظمتها، وتتحرك الهجمات المدعومة بالذكاء الاصطناعي بسرعة تفوق الدفاعات التقليدية، وتستخدم الأنظمة الذكية كأداة رئيسية للهجمات الآلية بسرعة آلة، من الاكتشاف إلى سرقة البيانات في دقائق قليلة.
اعتماد سريع يفوق الرقابة والأمان
أوضح التقرير أن استخدام AI في المؤسسات زاد بنسبة 200% في قطاعات رئيسية، بينما تفتقر كثير من الشركات إلى جرد كامل للنماذج الذكية أو الوظائف المدمجة فيها، مما يخلق ملايين التفاعلات غير المراقبة وتدفقات ضخمة من البيانات الحساسة غير المحمية. وذكر الخبراء أن الذكاء الاصطناعي موجود بالفعل في أدوات الأعمال اليومية، وتُضاف الميزات الذكية بشكل افتراضي، ما يجعلها تتجاوز مراقبة الأمن التقليدي ولا يمكن حظرها عبر جدران الحماية التقليدية.
الهجمات بسرعة الآلة والثغرات الشاملة
أظهرت اختبارات الفريق الأحمر أن معظم أنظمة AI المؤسسية يمكن اختراقها خلال 16 دقيقة فقط، مع اكتشاف ثغرات حرجة في كل الأنظمة التي تم تحليلها. وتعتمد الأنظمة على تراكم أذونات متعددة يمكن أن تولد سلاسل هجوم للوصول إلى بيانات حساسة أو أنظمة حيوية، كما أن نسبة الهويات غير البشرية مقابل البشر تصل حالياً إلى 82:1، مع محدودية الرقابة على ما يمكن أن تفعله نماذج AI، ووجود واجهات برمجة التطبيقات التي تمنح صلاحيات مستقلة تزيد من صعوبة السيطرة على المخاطر.
مشاكل الكود وجودة النماذج
سرعة السباق على AI دفعت فرق تطوير مبتدئة إلى إصدار كود غير محكم، ما يؤدي إلى ثغرات أمنية. وشركات تنشر ميزات مدعومة بالذكاء الاصطناعي بدون مراجعة أمنية كافية، مع وجود نقاط نهاية للنماذج بدون مصادقة، واستغلال واجهات برمجة التطبيقات بصلاحيات مفرطة، وتجاوز إعدادات الأمان الافتراضية.
حجم المخاطر والبيانات
ارتفعت نقلات البيانات إلى تطبيقات AI/ML في 2025 إلى 18,033 تيرابايت، أي ما يعادل نحو 3.6 مليار صورة رقمية، مع تسجيل 410 ملايين انتهاك لسياسات حماية البيانات (DLP) مرتبطة بـ ChatGPT، بما في ذلك محاولات مشاركة أرقام الضمان الاجتماعي والكود المصدري والسجلات الطبية.
الحوكمة هي الحل
أشار التقرير إلى أن المشكلة الأساسية ليست في الذكاء الاصطناعي نفسه، بل في حوكمة الهوية وإدارة الوصول. المؤسسات التي تعترف بأن أنظمة AI كيانات تتطلب اكتشافًا وإدارة دورة حياة وإشرافًا سلوكيًا ستكون قادرة على تبني الذكاء الاصطناعي بشكل مستدام وآمن، دون إبطاء الابتكار.



