تنبيه حول مخاطر اختراق نماذج الذكاء الاصطناعي
حدّدت دراسة صادرة من مركز الذكاء الاصطناعي في بريطانيا وشركة أنتروبيك احتمال وقوع اختراقات لنماذج الذكاء الاصطناعي مثل ChatGPT وGemini وتلاعبها لإنتاج محتوى مضلل.
أظهر الباحثون أن هذه النماذج يمكن التلاعب بها عبر ثغرات خلفية تتيح للمخترقين تدريبها لإنتاج محتوى مضلل وخطير للمستخدمين من خلال إدخال بيانات كاذبة.
استندت الدراسة إلى تجربة واقعية استعان خلالها الباحثون بنحو 250 وثيقة ملوثة ببيانات مغلوطة تم إدخالها عبر ثغرة خلفية، وبعد التجربة أنتجت الأدوات نصوصاً مبهمة وغير مفهومة.
أثارت تلك النتائج قلق الباحثين من قدرة الجهات الخبيثة على إدخال نصوص ملوّثة لهذه النماذج لجعلها تكتسب سلوكيات غير مرغوبة وخطيرة، وتعرف هذه العملية باسم “التسميم”، وهو ما يستدعي الحذر من الاعتماد على هذه النماذج خاصة في التعامل مع البيانات الحساسة.
