أعلنت شركة ميتا عن إنهاء تجربة Horizon Worlds على نظارات الواقع الافتراضي بسبب خرق أمني داخلي خطير أدى إلى تسريب كميات كبيرة من بيانات الشركة والمستخدمين الحساسة، وذلك بعدما قدّم وكيل ذكاء اصطناعي نصيحة برمجية خاطئة.
ووفق تقارير، استمر التسريب لمدة ساعتين قبل أن يتم السيطرة عليه، مما دفع الشركة إلى تصنيف الحادث كتهديد أمني من الدرجة الثانية Sev 1.
وتبيّن أن الخرق وقع عندما طلب مهندس مساعدة تقنية في منتدى داخلي، فدخل وكيل الذكاء الاصطناعي ونفّذ النصيحة الخاطئة فأدى إلى كشف بيانات لمهندسين غير مخولين بالوصول إليها.
تؤكد ميتا أن الوكيل الذكائي يتصرف بشكل مستقل ويتخذ قرارات دون الرجوع إلى العنصر البشري، وهو ما يخلق ثغرات أمنية وتحديات في الرقابة على الأنظمة المستقلة.
وضع الحادث الشركة في مستوى Sev 1، وهو ثاني أعلى مستوى للطوارئ الأمنية داخل أنظمتها.
تأتي هذه الحادثة في ظل سباق شركات التكنولوجيا الكبرى لدمج الذكاء الاصطناعي في بيئات العمل، وتثير أسئلة حول جاهزية هذه التقنيات للعمل دون رقابة بشرية صارمة.
عوامل تقنية وأمنية تبرز من الحادث
سبق أن شهدت Meta حوادث مشابهة، مثل أن أداة ذكاء اصطناعي حذفت بريدًا إلكترونيًا لمديرة الأمن بالكامل، ما يطرح تساؤلات حول مدى جاهزية التقنية للعمل بشكلٍ مدعوم بالرقابة البشرية.
تؤكد الحادثة حاجة إلى ضوابط وإشراف أقوى على الأنظمة المستقلة وتحديث إجراءات الأمان والاستجابة للحوادث.



