أطلقت مايكروسوفت تحديثات أمنية عاجلة وشاملة لمساعدها الذكي Microsoft 365 Copilot، بهدف منح المستخدمين والمؤسسات ضبطًا أكبر للبيانات والملفات التي يمكن للذكاء الاصطناعي الوصول إليها أثناء معالجة المعلومات.
تأتي هذه الخطوة بعدما تلقت الشركة تقارير تفيد بإدراج المساعد الذكي معلومات سرية وحساسة مخزنة محليًا ضمن تقاريره وملخصاته التي ينتجها للموظفين.
ستبدأ ميزات الحماية الجديدة بالعمل كإعدادات افتراضية في الفترة القادمة، مما يمنع الذكاء الاصطناعي من قراءة وتحليل الملفات التي لا يمتلك المستخدم صلاحيات صريحة بمشاركتها.
سياسات الحماية
وفقًا لموقع هيلب نت سيكيوريتي المختص بالأمن السيبراني، فإن هذه الاستجابة ضرورية لمعالجة ثغرات فقدان البيانات (DLP)، موضحًا أن السياسات كانت تُطبق سابقًا بفعالية على الملفات السحابية في خدمات ون درايف وشيربوينت، لكنها لم تشمل الملفات المحفوظة محليًا على أجهزة المستخدمين، وهو ما كان يمثل ثغرة سمحت للذكاء الاصطناعي باستخراج ودمج معلومات حساسة دون قصد في استجاباته للمستخدمين النهائيين.
يرجع السياق العام لهذه المشكلة إلى التحديات الكبيرة التي تواجهها المؤسسات عند تبني تقنيات الذكاء الاصطناعي المدمجة في بيئات العمل اليومية. فبينما تسعى المؤسسات للاستفادة من قدرات الذكاء الاصطناعي في زيادة الإنتاجية وأتمتة المهام، تظهر مخاطر جديدة تتعلق بالخصوصية وأمن البيانات الداخلية. وتعد هذه الخطوة من مايكروسوفت جزءًا من جهود أوسع في الصناعة التقنية لتطوير أطر عمل آمنة بحسب التصميم، تضمن عدم تعارض أدوات الذكاء الاصطناعي المتقدمة مع سياسات حماية أسرار الشركات والالتزامات القانونية المتعلقة بأمن المعلومات.
سد ثغرات الوصول المحلي
التحديث يعالج القصور السابق الذي كان يسمح للذكاء الاصطناعي بالوصول إلى بيانات حساسة غير محمية سحابيًا ومخزنة على الأجهزة الشخصية للمستخدمين، تعكس هذه الخطوة ضرورة توفير أدوات ذكية قادرة على مساعدة الموظفين دون المساس بمعايير الأمان وسياسات الخصوصية في الشركات.



