أطلقت مايكروسوفت تحديثات أمنية عاجلة وشاملة لمساعدها الذكي Microsoft 365 Copilot، بهدف منح المستخدمين والمؤسسات تحكمًا أكبر في البيانات والملفات التي يمكن للذكاء الاصطناعي الوصول إليها أثناء معالجة المعلومات.
تأتي هذه الخطوات مع ميزات حماية تُنشَط كإعدادات افتراضية خلال الفترة المقبلة، ما يمنع الذكاء الاصطناعي من قراءة وتحليل الملفات التي لا يمتلك المستخدم صلاحيات صريحة بمشاركتها.
سياسات الحماية
تشير تقارير متخصصة إلى أن هذه الاستجابة ضرورية لمعالجة ثغرات حماية البيانات (DLP). كانت السياسات تُطبق سابقًا بفعالية على الملفات السحابية في خدمات ون درايف وشيربوينت، لكنها لم تشمل الملفات المحفوظة محليًا على أجهزة الكمبيوتر، وهو ما كان يتيح للذكاء الاصطناعي استخراج معلومات حساسة دون قصد.
يبين ذلك التحديات التي تواجه الشركات عند اعتماد تقنيات الذكاء الاصطناعي في بيئات العمل اليومية، حيث تسعى المؤسسات لزيادة الإنتاجية مع الحفاظ على الخصوصية وأمن البيانات. وتُعد هذه الخطوة جزءًا من جهود أوسع في الصناعة لتبني إطار آمن من التصميم (Secure-by-Design)، يضمن أن أدوات الذكاء الاصطناعي لا تتعارض مع سياسات حماية أسرار الشركات والالتزامات القانونية.
سد ثغرات الوصول المحلي
يعالج التحديث القصور الذي كان يسمح للذكاء الاصطناعي بالوصول إلى بيانات حساسة غير محمية سحابيًا ومخزنة على أجهزة المستخدمين الشخصية. وتؤكد المبادرة على ضرورة توفير أدوات ذكية تعين الموظفين دون المساس بمعايير الأمن والخصوصية.



