تشير التحذيرات التقنية الصادرة عن خبراء إلى وجود ظاهرة تسمم نماذج الذكاء الاصطناعي كقضية متصاعدة قد تؤدي إلى انهيار الموثوقية إذا استمر التدريب على محتوى غير موثوق مولَّد ذاتيًا من أنظمة ذكاء اصطناعي أخرى، مما يخلق حلقة مفرغة من البيانات الرديئة ويضخم الأخطاء والتحيزات في النتائج.
آثار التسميم على الأداء والقرارات
ويقع هذا التأثير في سياق تدفق مدخلات آلية غير متحقق منها عبر مسارات العمل وأنظمة اتخاذ القرار في المؤسسات، وهو ما يؤدي إلى نتائج أسوأ من المتوقع، ولهذا تدعو الدراسات الشركات إلى اعتماد إجراءات صارمة لتنقية بيانات التدريب وحمايتها فورًا.
التحدي الفني والاستراتيجي أمام المؤسسات
يُشكل هذا التحدي عائقًا استراتيجيًا أمام مستقبل الذكاء الاصطناعي في القطاعات الحيوية مثل الرعاية الصحية والخدمات المالية والأمن السيبراني، وتبرز الحاجة إلى تطبيق مبادئ الثقة المعدومة Zero Trust على حوكمة البيانات لضمان جودة وأصالة كل معلومة تدخل في التدريب.
مبدأ الثقة المعدومة وتطبيقه على البيانات
تدفع فكرة الثقة المعدومة إلى تدقيق صارم في مصادر البيانات وتنقيتها وتخطيط عمليات الحوكمة بحيث لا تُقبل أي معلومة إلا بعد التحقق من صحتها وأصلها، وهو تحول كان يُستخدم لحماية الشبكات ويعاد توجيهه لضمان سلامة البيانات المستخدمة في النماذج.
دورة التدهور الذاتي وسبل الوقاية
يؤدي التدريب المستمر على بيانات اصطناعية إلى فقدان النماذج لفهم الواقع البشري، فتصبح إجاباتها غير منطقية ومضللة، وبالتالي يصبح التحقق من صحة المصادر والتنقية شرطاً أساسياً لاستمرار النماذج بفعالية وموثوقية عالية.



