ذات صلة

اخبار متفرقة

لو شعرك كيرلى.. 6 زيوت طبيعية تساعد في تسريع نموه

يحتاج الشعر الكيرلي عناية خاصة وروتينًا مختلفًا يحافظ على...

كيفية إزالة صبغة الشعر من الجلد: 7 حيل فعالة وآمنة

تحضير البشرة قبل الصبغة ابدأ بتجهيز البشرة بوضع طبقة رقيقة...

ما علامات انتفاخ الرئة الشامل في أحد أشكال الانسداد الرئوي؟

تعريف وانتفاخ الرئة الشامل يُعرَف انتفاخ الرئة الشامل، أو البانورامي...

مي حلمي تتألق بإطلالة أنيقة في أمستردام

ظهرت مي حلمي في الصور بإطلالة أنيقة وجريئة مرتدية...

مايكروسوفت تدق ناقوس الخطر: الذكاء الاصطناعي قد يتحول إلى تهديد داخلي

تنبه مايكروسوفت من مخاطر متزايدة مرتبطة باستخدام وكلاء الذكاء الاصطناعي داخل المؤسسات، خصوصاً عندما تُمنح الأنظمة صلاحيات واسعة دون إطار حوكمة واضح.

صلاحيات مفرطة وثغرات محتملة

توضح الشركة أن بعض أنظمة الذكاء الاصطناعي تحصل على وصول واسع إلى البيانات والأنظمة الداخلية، لكنها غالباً لا تتوفر على إجراءات حماية كافية، ما قد يجعلها معرّضة لاستغلال جهات ضارة عبر تعليمات مضللة أو محتوى مخادع، وبالتالي قد تتحول من أداة دعم إلى نقطة ضعف داخل المؤسسة.

انتشار واسع داخل الشركات الكبرى

يشير تقرير إلى أن نسبة كبيرة من شركات فورتشن 500 تستخدم أدوات الذكاء الاصطناعي، غالباً عبر منصات سهلة التطوير بدون تعليمات برمجية معقدة، مما يسهل الاعتماد عليها لكنه يعرض الأمن للخطر إن لم تُدار بشكل صحيح. كما بيّنت دراسة أن نحو 29% من الموظفين يستخدمون أدوات ذكاء اصطناعي في العمل دون موافقة من أقسام تقنية المعلومات.

كيف يتم استغلال الأنظمة الذكية؟

يعرض التحليل حالات يمكن فيها تضليل الأنظمة عبر إدخال تعليمات ضارة ضمن محتوى يبدو عادياً، أو من خلال تعديل طريقة عرض المهام الموجهة إليها. وبوجود صلاحيات واسعة قد يؤدي أي خطأ في التوجيه إلى كشف بيانات حساسة أو تنفيذ أوامر غير مقصودة.

تبني نموذج انعدام الثقة

ولمواجهة التحديات، توصي مايكروسوفت بتطبيق إطار أمني يعتمد على مبدأ انعدام الثقة، أي لا تُثق بالنظام تلقائياً وتتأكد دائماً من صلاحيات الوصول وتراقب سلوك الأنظمة والمستخدمين بغض النظر عن وجودهم داخل الشبكة أم خارجها.

بين الفرص والمخاطر

رغم التحذيرات، ترى مايكروسوفت أن الذكاء الاصطناعي يمثل فرصة كبيرة لزيادة الإنتاجية وتحسين سير العمل، إلا أن الاستفادة القصوى تتطلب حوكمة واضحة وإدارة دقيقة للصلاحيات وتطبيق معايير أمان متقدمة لضمان ألا تتحول أدوات الذكاء الاصطناعي إلى تهديد داخلي غير متوقع.

spot_img
spot_imgspot_img

تابعونا على