ذات صلة

اخبار متفرقة

المخاطر النفسية والسلوكية والاجتماعية لإدمان الألعاب الإلكترونية لدى الأطفال

تحوّلت الألعاب الإلكترونية من مجرد وسيلة ترفيه إلى جزء...

صحتك بالدنيا أولاً.. 5 أساسيات في حياة مريض السكر و7 علامات للسكتة الدماغية

دراسة ألمانية: ارتفاع ضربات القلب لدى مشجعي كرة القدم...

اليوم الفرى.. هل يفيدك حقاً خلال رحلتك في إنقاص الوزن

فهم فكرة يوم الفري وأثره على الالتزام بالنظام الغذائي ابدأ...

10 حالات صحية قد تشير إلى مرض الزهايمر قبل سنوات من التشخيص

تشير عدد من الدراسات إلى وجود ارتباطات مبكرة بمرض...

المخاطر النفسية والسلوكية والاجتماعية لإدمان الألعاب الإلكترونية لدى الأطفال

أصبحت الألعاب الإلكترونية جزءًا متصلًا بحياة الأطفال اليومية، وليست...

تقرير يحذر المؤسسات من هجمات الذكاء الاصطناعي التي تتجاوز كل الدفاعات التقليدية

تشير تقارير شركة Zscaler للأمن السيبراني إلى أن الهجمات المدعومة بالذكاء الاصطناعي تتحرك بسرعة الآلة وتتجاوز قدرة الدفاعات البشرية والتقليدية في الاستجابة.

يؤكد التقرير أن المهاجمين، سواء كانوا عصابات إجرامية أو مدعومين من دول، يستخدمون الذكاء الاصطناعي لأتمتة عمليات التسلل واختراق الأنظمة في أقل من 16 دقيقة، وهو زمن قياسي يتطلب تحولًا جذريًا في استراتيجيات الحماية الرقمية.

وبحسب TechNewsWorld، فإن تحليلًا يؤكد أن أكثر من تريليون معاملة رقمية كشف أن 40% من استخدام الموظفين للذكاء الاصطناعي يتضمن مشاركة بيانات مؤسسية حساسة دون رقابة كافية.

أبرز النتائج والتحذيرات

وأوضحت ThreatLabz 2026 أن تبني الشركات للذكاء الاصطناعي يتجاوز قدرتها على حماية أنظمتها، مع حركة الهجمات المدعومة بالذكاء الاصطناعي بسرعة تفوق الدفاعات التقليدية، حيث يمكن للاختراق أن ينتقل من اكتشاف الثغرة إلى سرقة البيانات في دقائق قليلة.

وأشار التقرير إلى أن استخدام AI في المؤسسات زاد بنحو 200% في قطاعات رئيسية، بينما تفتقر كثير من الشركات إلى جرد كامل للنماذج الذكية أو الوظائف المدمجة فيها، ما يخلق ملايين التفاعلات غير المراقبة وتدفقات ضخمة من البيانات الحساسة غير المحمية.

أظهرت اختبارات الفريق الأحمر أن معظم أنظمة AI المؤسسية يمكن اختراقها خلال 16 دقيقة، مع كشف ثغرات حرجة في كل الأنظمة التي تم تحليلها، واعتماد الأنظمة على تراكم أذونات متعددة قد يولد سلاسل هجوم غير مقصودة للوصول إلى بيانات حساسة أو أنظمة حيوية، كما يصل عدد الهويات غير البشرية إلى 82:1 مقارنة بالبشر، وتزداد المخاطر مع وجود واجهات برمجة تطبيقات تمنح صلاحيات مستقلة وتقلل من قدرة الرقابة على ما تفعله نماذج AI.

كما أظهرت النتائج أن سرعة التطوير دفعت فرقًا إلى إصدار كود غير محكم، ما يؤدي إلى ثغرات أمنية، وتعمل الشركات على نشر ميزات مدعومة بالذكاء الاصطناعي دون مراجعة أمنية كافية، مع وجود نهايات للنماذج بلا مصادقة، واستخدام APIs بصلاحيات مفرطة وتجاوز لإعدادات الأمان الافتراضية.

ارتفع حجم البيانات الم Itu نقلها إلى تطبيقات AI/ML في 2025 إلى 18,033 تيرابايت، ما يعادل نحو 3.6 مليار صورة رقمية، مع تسجيل 410 ملايين مخالفة لسياسات حماية البيانات المرتبطة بـ ChatGPT، بما في ذلك محاولات مشاركة أرقام الضمان الاجتماعي والكود المصدري والسجلات الطبية.

تشير الحوكمة إلى أن المشكلة ليست في الذكاء الاصطناعي نفسه، بل في حوكمة الهوية وإدارة الوصول؛ فالمؤسسات التي تعترف بأن أنظمة AI كيانات تحتاج إلى اكتشافها وإدارة دورة حياتها وإشراف سلوكي ستتمكن من اعتماد الذكاء الاصطناعي بشكل مستدام وآمن دون إبطاء الابتكار.

spot_img
spot_imgspot_img

تابعونا على