ذات صلة

اخبار متفرقة

مجدى يعقوب: أمراض القلب ما زالت السبب الرئيسى للوفاة

أشكر الجميع وأبدأ بتقديم اعتذاري، فقد كان يسعدني جداً...

عشر حالات صحية قد تكشف عن احتمال الإصابة بالزهايمر قبل سنوات من التشخيص

تشير الدراسات إلى أن مرض الزهايمر قد يسبق تشخيصه...

المخاطر النفسية والسلوكية والاجتماعية لإدمان الألعاب الإلكترونية لدى الأطفال

أصبحت الألعاب الإلكترونية جزءًا من حياة الأطفال اليومية وليست...

وصفات طبيعية للتخلص من التهاب الحلق الناتج عن نزلات البرد

فهم التهاب الحلق أثناء نزلات البرد تحدث نزلات البرد بسبب...

وصفات طبيعية لتفتيح اليدين والقدمين: حلول منزلية فعالة بمكونات بسيطة

أسباب اسمرار اليدين والقدمين تتكوّن مشكلة اسمرار اليدين والقدمين نتيجة...

تقرير يحذر المؤسسات من هجمات الذكاء الاصطناعي التي تتجاوز كل الدفاعات التقليدية

تشير تقارير شركة Zscaler للأمن السيبراني إلى أن الهجمات المدعومة بالذكاء الاصطناعي تتحرك بسرعة الآلة وتتجاوز قدرة الدفاعات البشرية والتقليدية في الاستجابة.

يؤكد التقرير أن المهاجمين، سواء كانوا عصابات إجرامية أو مدعومين من دول، يستخدمون الذكاء الاصطناعي لأتمتة عمليات التسلل واختراق الأنظمة في أقل من 16 دقيقة، وهو زمن قياسي يتطلب تحولًا جذريًا في استراتيجيات الحماية الرقمية.

وبحسب TechNewsWorld، فإن تحليلًا يؤكد أن أكثر من تريليون معاملة رقمية كشف أن 40% من استخدام الموظفين للذكاء الاصطناعي يتضمن مشاركة بيانات مؤسسية حساسة دون رقابة كافية.

أبرز النتائج والتحذيرات

وأوضحت ThreatLabz 2026 أن تبني الشركات للذكاء الاصطناعي يتجاوز قدرتها على حماية أنظمتها، مع حركة الهجمات المدعومة بالذكاء الاصطناعي بسرعة تفوق الدفاعات التقليدية، حيث يمكن للاختراق أن ينتقل من اكتشاف الثغرة إلى سرقة البيانات في دقائق قليلة.

وأشار التقرير إلى أن استخدام AI في المؤسسات زاد بنحو 200% في قطاعات رئيسية، بينما تفتقر كثير من الشركات إلى جرد كامل للنماذج الذكية أو الوظائف المدمجة فيها، ما يخلق ملايين التفاعلات غير المراقبة وتدفقات ضخمة من البيانات الحساسة غير المحمية.

أظهرت اختبارات الفريق الأحمر أن معظم أنظمة AI المؤسسية يمكن اختراقها خلال 16 دقيقة، مع كشف ثغرات حرجة في كل الأنظمة التي تم تحليلها، واعتماد الأنظمة على تراكم أذونات متعددة قد يولد سلاسل هجوم غير مقصودة للوصول إلى بيانات حساسة أو أنظمة حيوية، كما يصل عدد الهويات غير البشرية إلى 82:1 مقارنة بالبشر، وتزداد المخاطر مع وجود واجهات برمجة تطبيقات تمنح صلاحيات مستقلة وتقلل من قدرة الرقابة على ما تفعله نماذج AI.

كما أظهرت النتائج أن سرعة التطوير دفعت فرقًا إلى إصدار كود غير محكم، ما يؤدي إلى ثغرات أمنية، وتعمل الشركات على نشر ميزات مدعومة بالذكاء الاصطناعي دون مراجعة أمنية كافية، مع وجود نهايات للنماذج بلا مصادقة، واستخدام APIs بصلاحيات مفرطة وتجاوز لإعدادات الأمان الافتراضية.

ارتفع حجم البيانات الم Itu نقلها إلى تطبيقات AI/ML في 2025 إلى 18,033 تيرابايت، ما يعادل نحو 3.6 مليار صورة رقمية، مع تسجيل 410 ملايين مخالفة لسياسات حماية البيانات المرتبطة بـ ChatGPT، بما في ذلك محاولات مشاركة أرقام الضمان الاجتماعي والكود المصدري والسجلات الطبية.

تشير الحوكمة إلى أن المشكلة ليست في الذكاء الاصطناعي نفسه، بل في حوكمة الهوية وإدارة الوصول؛ فالمؤسسات التي تعترف بأن أنظمة AI كيانات تحتاج إلى اكتشافها وإدارة دورة حياتها وإشراف سلوكي ستتمكن من اعتماد الذكاء الاصطناعي بشكل مستدام وآمن دون إبطاء الابتكار.

spot_img
spot_imgspot_img

تابعونا على