خطر التلاعب بنماذج الذكاء الاصطناعي
أظهرت دراسة صادرة عن مركز الذكاء الاصطناعي في بريطانيا وشركة أنتروبيك أن نماذج الذكاء الاصطناعي مثل ChatGPT وGemini قد تكون عُرضة لثغرات تسمح للمخترقين بتدريبها باستخدام بيانات كاذبة لإنتاج محتوى مضلّل وخطير.
أُجرت التجربة على نحو 250 وثيقة ملوثة ببيانات مغلوطة دخلت عبر ثغرة خلفية، وبعد التدريب أفرزت النماذج نصوصًا غامضة وغير مفهومة، وهو ما يبرز إمكانية إساءة استخدامها لإنتاج محتوى ضار للمستخدمين.
تشير النتائج إلى أن الجهات الخبيثة قد تستغل هذه الثغرات لإدخال نصوص ملوثة في المنشورات، مما يجعل النماذج تتبنّى سلوكيات غير مرغوبة وخطيرة، وتُعرف هذه العملية بالتسميم، وهو ما يستدعي الحذر من الاعتماد على هذه النماذج في مجالات حسّاسة للغاية.
