ذات صلة

اخبار متفرقة

مايكروسوفت تنهى دعم ويندوز 10 اعتباراً من اليوم.. إليك ما يمكنك فعله

تعلن مايكروسوفت رسميًا عن وقف التحديثات الأمنية المجانية لنظام...

كيف تتعرف على إصابتك بجلطة دموية؟.. علامات هامة

اعلم أن تجلط الدم قد يظهر بطرق مختلفة وفق...

ترامب: غزة ليست سوى بداية، والهدف الأكبر هو السلام الشامل في الشرق الأوسط.

تصريح ترامب وتداعياته على السلام في الشرق الأوسط أعلن ترامب...

دراسة بريطانية تكشف: يمكن التلاعب بـChatGPT وGemini لتوليد محتوى مضلل

أبرز ما تكشفه الدراسة

كشفت دراسة صادرة عن مركز الذكاء الاصطناعي في بريطانيا وشركة أنتروبيك عن احتمال وجود اختراقات لنماذج الذكاء الاصطناعي مثل ChatGPT وGemini، وتيسير التلاعب بها لإنتاج محتوى مضلل وخطر للمستخدمين.

أوضحت النتائج أن ثغرات خلفية يمكن استغلالها تسمح للمخترقين بتدريب هذه النماذج باستخدام بيانات كاذبة، ما يؤدي إلى إنتاج محتوى مضلل وضار للمستخدمين.

اعتمدت التجربة الواقعية على نحو 250 وثيقة ملوثة ببيانات مغلوطة أُدخِلت عبر ثغرة خلفية، وبعد التجربة أُنتِجت الأدوات نصوصاً مبهمة وغير مفهومة.

وتُثير النتائج قلقاً من قدرة الجهات الخبيثة على إدخال نصوص ملوثة في البيانات التدريبية، مما يجعل النماذج تكتسب سلوكيات غير مرغوبة وخطيرة، وتُعرف هذه العملية بالتسميم، وهو ما يستدعي الحذر عند الاعتماد على هذه النماذج في البيانات الحساسة.

يؤكد هذا التحذير ضرورة عدم الاعتماد الكامل على هذه النماذج في مجالات حساسة وفي الاستشارات الطبية أو القرارات الحرجة دون تحقق وتدقيق من مصادر مستقلة.

spot_img
spot_imgspot_img

تابعونا على