تنبيه من تقارير Zscaler لعام 2026 بشأن AI والهجمات السيبرانية
تصدر شركة Zscaler تقريرها السنوي لعام 2026 محذّراً من أن الهجمات المدعومة بالذكاء الاصطناعي تتحرّك بسرعة الآلة، مما يجعل الدفاعات البشرية والتقليدية عاجزة عن الاستجابة في الوقت المناسب.
يؤكد التقرير أن المهاجمين، سواء كانوا عصابات إجرامية أو مدعومين من دول، يستخدمون الذكاء الاصطناعي لأتمتة عمليات التسلل واختراق الأنظمة في أقل من 16 دقيقة، وهو زمن قياسي يتطلب تحولاً جذرياً في استراتيجيات الحماية الرقمية.
تأثير AI والسرعة على الدفاعات
وبحسب TechNewsWorld الذي نقل تحليله، حلل التقرير أكثر من تريليون معاملة رقمية، ووجد أن نحو 40% من استخدام الموظفين للذكاء الاصطناعي يتضمن مشاركة بيانات مؤسسية حساسة دون رقابة كافية، ما يفرض على الشركات تبني أنظمة دفاعية تعتمد تقنيات AI للكشف المبكر وتحييد التهديدات.
وأظهر ThreatLabz 2026 أن تبني الشركات للذكاء الاصطناعي يتجاوز قدرتها على حماية أنظمتها، مع حركة هجمات مدعومة بالذكاء الاصطناعي تتفوق على الدفاعات التقليدية، وأن الاختراق قد ينتقل من اكتشاف الثغرة إلى سرقة البيانات في دقائق.
اعتماد الذكاء الاصطناعي يفوق الرقابة والأمان
أوضح التقرير أن استخدام AI في المؤسسات زاد بنسبة 200% في قطاعات رئيسية، بينما تفتقر كثير من الشركات إلى جرد كامل للنماذج الذكية أو الوظائف المدمجة فيها، ما يخلق ملايين التفاعلات غير المراقبة وتدفقات كبيرة من البيانات الحساسة غير المحمية.
ويؤكد الخبراء أن الذكاء الاصطناعي موجود بالفعل في أدوات الأعمال اليومية، وتُضاف الميزات الذكية بشكل افتراضي، ما يجعلها تتجاوز مراقبة الأمن التقليدي ولا يمكن حظرها عبر جدران حماية تقليدية.
الهجمات بسرعة الآلة والثغرات الشاملة
أظهرت اختبارات الفريق الأحمر أن غالبية أنظمة AI المؤسسية يمكن اختراقها خلال 16 دقيقة، مع اكتشاف ثغرات حرجة في كل الأنظمة المحللة. وتعتمد هذه الأنظمة على تراكم أذونات متعددة يمكن أن تولد سلاسل هجوم للوصول إلى بيانات حساسة أو أنظمة حيوية.
كما يصل عدد الهويات غير البشرية إلى 82:1 مقارنة بالبشر، وتبقى الرقابة على ما تقوم به نماذج AI محدودة، وتتيح واجهات API صلاحيات مستقلة تزيد من صعوبة السيطرة على المخاطر.
مشاكل الكود وجودة النماذج
أشارت النتائج إلى أن سباق AI دفع فرق تطوير مبتدئة لإصدار كود غير محكم، ما يؤدي إلى ثغرات أمنية. وتقوم الشركات بإطلاق ميزات مدعومة بالذكاء الاصطناعي بلا مراجعة أمنية كافية، مع وجود نقاط نهاية للنماذج بلا مصادقة واستغلال صلاحيات مفرطة في APIs وتجاوز إعدادات الأمان الافتراضية.
حجم المخاطر والبيانات
ارتفعت حركة البيانات إلى تطبيقات AI/ML في 2025 إلى 18,033 تيرابايت، أي ما يعادل نحو 3.6 مليار صورة رقمية، مع تسجيل 410 ملايين انتهاك لسياسات حماية البيانات (DLP) المرتبطة بـ ChatGPT، بما في ذلك محاولات مشاركة أرقام الضمان الاجتماعي والكود المصدري والسجلات الطبية.
الحوكمة هي الحل
أشار التقرير إلى أن المشكلة الأساسية ليست في الذكاء الاصطناعي نفسه، بل في حوكمة الهوية وإدارة الوصول. المؤسسات التي تعترف بأن أنظمة AI كيانات تتطلب اكتشافاً وإدارة دورة حياة وإشرافاً سلوكيًا ستكون قادرة على اعتماد AI بطريقة آمنة ومستدامة دون إبطاء الابتكار.



