ذات صلة

اخبار متفرقة

لو شعرك كيرلى.. 6 زيوت طبيعية تساعد في تسريع نموه

يحتاج الشعر الكيرلي عناية خاصة وروتينًا مختلفًا يحافظ على...

كيفية إزالة صبغة الشعر من الجلد: 7 حيل فعالة وآمنة

تحضير البشرة قبل الصبغة ابدأ بتجهيز البشرة بوضع طبقة رقيقة...

ما علامات انتفاخ الرئة الشامل في أحد أشكال الانسداد الرئوي؟

تعريف وانتفاخ الرئة الشامل يُعرَف انتفاخ الرئة الشامل، أو البانورامي...

مي حلمي تتألق بإطلالة أنيقة في أمستردام

ظهرت مي حلمي في الصور بإطلالة أنيقة وجريئة مرتدية...

مايكروسوفت تحذر من احتمال أن يتحول الذكاء الاصطناعى إلى تهديد داخلي.

حذّرت مايكروسوفت من مخاطر متزايدة مرتبطة باستخدام وكلاء الذكاء الاصطناعي داخل المؤسسات، إذ يمكن أن تتحول هذه الأنظمة إلى عملاء مزدوجين إذا مُنحت لها صلاحيات واسعة دون ضوابط صارمة.

وأوضحت أن بعض أنظمة الذكاء الاصطناعي تحصل على صلاحيات وصول واسعة إلى البيانات والأنظمة الداخلية، لكنها تفتقر إلى إجراءات حماية كافية، ما يجعلها عرضة لاستغلال جهة خبيثة بتوجيهها تعليمات مضللة أو إدخال محتوى ضار، فيتحول النظام إلى نقطة ضعف داخل المؤسسة بدلاً من أن يكون أداة دعم وإنتاجية.

وأشار التقرير إلى انتشار هذا الوضع داخل الشركات الكبرى، حيث تستخدم أكثر من 80% من شركات فورتشن 500 أدوات ذكاء اصطناعي مطورة عبر منصات منخفضة التعليمات أو بدون كتابة كود، وهو ما يسهل التطوير لكنه قد يضعف الجوانب الأمنية إذا لم يتم إدارة الأمر بعناية. كما أظهرت دراسة شملت أكثر من 1700 متخصص في أمن البيانات أن 29% من الموظفين يستخدمون أدوات ذكاء اصطناعي في العمل دون موافقة رسمية من أقسام تقنية المعلومات.

وتوضح مايكروسوفت كيف يمكن استغلال الأنظمة الذكية عندما يتم إدخال تعليمات ضارة ضمن محتوى عادي، أو بتغيير طريقة عرض المهام لدفع النظام لسلوك غير مقصود، ومع صلاحيات واسعة قد يؤدي أي توجيه خاطئ إلى كشف بيانات حساسة أو تنفيذ أوامر غير مقصودة.

تبني نموذج انعدام الثقة

ولتفادي هذه التحديات، أوصت مايكروسوفت بتطبيق إطار أمني يعتمد على مبدأ انعدام الثقة، وهو قاعدة لا تثق أبدًا وتتحقق دائمًا، بمعنى التحقق المستمر من صلاحيات الوصول ومراقبة سلوك الأنظمة والمستخدمين، سواء داخل الشبكة أم خارجها.

بين الفرص والمخاطر

رغم التحذيرات، تؤكد مايكروسوفت أن الذكاء الاصطناعي يمثل فرصة كبيرة لتعزيز الإنتاجية وتحسين سير العمل داخل المؤسسات، لكن الاستفادة القصوى من هذه التقنيات تتطلب حوكمة واضحة، وإدارة دقيقة للصلاحيات، وتطبيق معايير أمنية متقدمة تضمن عدم تحويل أدوات الذكاء الاصطناعي إلى مصدر تهديد داخلي غير متوقع.

spot_img
spot_imgspot_img

تابعونا على