توقعات الهجمات المدفوعة بالذكاء الاصطناعي وسرعتها
تشير تقارير Zscaler إلى أن الهجمات المدفوعة بالذكاء الاصطناعي تتحرك بسرعة تشبه سرعة الآلة، مما يجعل الدفاعات البشرية والتقليدية عاجزة عن الاستجابة في الوقت المناسب.
يستخدم المهاجمون، سواء كانوا عصابات إجرامية أو مدعومين من دول، الذكاء الاصطناعي لأتمتة عمليات التسلل والاختراق في أقل من 16 دقيقة، وهو زمن قياسي يتطلب تحويلًا جذريًا في استراتيجيات الحماية الرقمية.
تحليل المعاملات الرقمية وتأثير AI
أوضح تحليل يفوق تريليون معاملة رقمية أن 40% من استخدام الموظفين للذكاء الاصطناعي يشمل مشاركة بيانات مؤسسية حساسة دون رقابة كافية، وهو ما يبرز فجوة متزايدة بين قدرات المهاجمين وسرعة استجابة فرق الأمن ويؤكد ضرورة اعتماد أنظمة دفاعية تعمل بنفس تقنيات AI للكشف عن التهديدات وتحييدها بشكل استباقي وفوري.
أوضح ThreatLabz 2026 أن تبني الشركات للذكاء الاصطناعي يتجاوز قدرتها على الحماية، وتتحرك الهجمات المدعومة بالذكاء الاصطناعي بسرعة تفوق الدفاعات التقليدية، فتصبح الأنظمة الذكية أداة رئيسية للهجمات الآلية بسرعة آلة، حيث يمكن للاختراق الانتقال من اكتشاف الثغرة إلى سرقة البيانات في دقائق قليلة.
اعتماد AI والحاجة إلى الحوكمة
أشار التقرير إلى أن استخدام AI في المؤسسات ارتفع بنسبة 200% في قطاعات رئيسية، بينما تفتقر كثير من الشركات إلى جرد كامل للنماذج الذكية والوظائف المدمجة فيها، ما يخلق ملايين التفاعلات غير المراقبة وتدفقات ضخمة من البيانات الحساسة غير المحمية.
الهجمات بسرعة الآلة والثغرات الشاملة
أظهرت اختبارات الفريق الأحمر أن معظم أنظمة AI المؤسسية يمكن اختراقها خلال 16 دقيقة، مع وجود ثغرات حرجة في كل الأنظمة المحللة. وتعتمد الأنظمة على تراكم أذونات متعددة يمكن أن تولد سلاسل هجوم للوصول إلى بيانات حساسة أو أنظمة حيوية، كما أن نسبة الهويات غير البشرية إلى البشرية تصل إلى 82:1، مع محدودية الرقابة على ما يمكن أن تفعله نماذج AI، وتوفر APIs صلاحيات مستقلة تزيد من صعوبة السيطرة على المخاطر.
مشاكل الكود وجودة النماذج
تكشف سرعة السباق في تطوير AI عن ظهور كود غير محكم من فرق ابتكار مبتدئة، ما يؤدي إلى ثغرات أمنية، وتواصل الشركات إطلاق ميزات مدعومة بالذكاء الاصطناعي دون مراجعة أمنية كافية، مع نقاط نهاية للنماذج بدون مصادقة واستغلال APIs بصلاحيات مفرطة وتجاوز إعدادات الأمان الافتراضية.
حجم المخاطر والبيانات
ارتفعت حركة البيانات إلى تطبيقات AI/ML في 2025 إلى 18,033 تيرابايت، وهو ما يعادل نحو 3.6 مليار صورة رقمية، مع تسجيل 410 ملايين انتهاك لسياسات حماية البيانات المرتبطة بـ ChatGPT وحده، بما في ذلك محاولات مشاركة أرقام الضمان الاجتماعي والكود المصدري والسجلات الطبية.
الحوكمة هي الحل
أشار التقرير إلى أن المشكلة الأساسية ليست في الذكاء الاصطناعي نفسه، بل في حوكمة الهوية وإدارة الوصول، فالمؤسسات التي تعترف بأن أنظمة الذكاء الاصطناعي كيانات تحتاج إلى اكتشاف وإدارة دورة الحياة وإشراف سلوكي ستكون قادرة على تبني AI بشكل آمن ومستدام دون إبطاء الابتكار.



