ذات صلة

اخبار متفرقة

«الأرصاد»: أمطار متوسطة ستشهدها هذه المناطق

يتوقع المركز الوطني للأرصاد هطول أمطار رعدية متوسطة إلى...

تنفيذ حكم القتل تعزيراً على أحد الجناة في منطقة مكة المكرمة

نفذت وزارة الداخلية حكم القتل تعزيرًا بالجاني خليل أحمد...

استدعاء 4657 مركبة من شيفروليه وجي إم سي بسبب عيب خطير في الوسادة الهوائية

أعلنت وزارة التجارة عن استدعاء 4657 مركبة من طرازات...

شعاب البحر الأحمر تقاوم الحرارة.. و”الحياة الفطرية” تسجل تحسنًا غير مسبوق

اختتم المركز الوطني لتنمية الحياة الفطرية المرحلة الثانية لفصل...

دراسة من المملكة المتحدة تكشف أن ChatGPT وGemini قابلان للتلاعب لإنتاج محتوى مضلل

أصدرت دراسة مشتركة من مركز الذكاء الاصطناعي في بريطانيا وشركة أنتروبيك تحذيراً من احتمالات اختراق نماذج الذكاء الاصطناعي مثل ChatGPT وGemini وإمكانية استخدامها لإنتاج محتوى مضلّل أو ضار للمستخدمين.

أوضح الباحثون أن هذه النماذج يمكن التلاعب بها عبر ثغرات تتيح للمخترقين تدريبها باستخدام بيانات ملوثة، مما يؤدي إلى توليد محتوى مضلّل وخطير قد يؤثر في قرارات المستخدمين.

أجرى الفريق تجربة واقعية اعتمدوا خلالها نحو 250 وثيقة ملوثة بمعلومات مغلوطة تم إدخالها عبر ثغرة خلفية، وبعدها أُنتجت عن طريق الأدوات نصوص غامضة وغير واضحة المعنى.

أثارت النتائج قلق الباحثين من قدرة الجهات الخبيثة على إدخال نصوص ملوثة في منشورات نماذج اللغة لجعلها تتبنّى سلوكيات غير مرغوبة وخطيرة، وتُعرف هذه العملية بالتسميم، وهو ما يفرض على المستخدمين عدم الاعتماد على هذه النماذج خصوصاً عند التعامل مع بيانات حساسة.

أشارت الدراسة إلى ضرورة تعزيز آليات الحماية والتقييم المستمر للنماذج لضمان استخدامها بأمان، وتفادي مخاطر التدريب باستخدام بيانات مغلوطة أو هجمات خلفية قد تدفع النماذج إلى إنتاج محتوى مضلّل أو ضار.

spot_img
spot_imgspot_img

تابعونا على