ذات صلة

اخبار متفرقة

أطعمة مدهشة تنظف الشرايين وتخفض الكوليسترول الضار بطريقة طبيعية

اجعل الشوفان من أساسيات النظام الغذائي لصحة القلب، فهو...

خمس خطوات مذهلة لتنظيف الأواني المحروقة بسهولة، دون فرك أو مواد كيميائية

ابدئي بنقع الأواني المحروقة في ماء دافئ مع بضع...

«الأرصاد»: أمطار متوسطة ستشهدها هذه المناطق

يتوقع المركز الوطني للأرصاد هطول أمطار رعدية متوسطة إلى...

تنفيذ حكم القتل تعزيراً على أحد الجناة في منطقة مكة المكرمة

نفذت وزارة الداخلية حكم القتل تعزيرًا بالجاني خليل أحمد...

استدعاء 4657 مركبة من شيفروليه وجي إم سي بسبب عيب خطير في الوسادة الهوائية

أعلنت وزارة التجارة عن استدعاء 4657 مركبة من طرازات...

دراسة من المملكة المتحدة تكشف أن ChatGPT وGemini قابلان للتلاعب لإنتاج محتوى مضلل

أصدرت دراسة مشتركة من مركز الذكاء الاصطناعي في بريطانيا وشركة أنتروبيك تحذيراً من احتمالات اختراق نماذج الذكاء الاصطناعي مثل ChatGPT وGemini وإمكانية استخدامها لإنتاج محتوى مضلّل أو ضار للمستخدمين.

أوضح الباحثون أن هذه النماذج يمكن التلاعب بها عبر ثغرات تتيح للمخترقين تدريبها باستخدام بيانات ملوثة، مما يؤدي إلى توليد محتوى مضلّل وخطير قد يؤثر في قرارات المستخدمين.

أجرى الفريق تجربة واقعية اعتمدوا خلالها نحو 250 وثيقة ملوثة بمعلومات مغلوطة تم إدخالها عبر ثغرة خلفية، وبعدها أُنتجت عن طريق الأدوات نصوص غامضة وغير واضحة المعنى.

أثارت النتائج قلق الباحثين من قدرة الجهات الخبيثة على إدخال نصوص ملوثة في منشورات نماذج اللغة لجعلها تتبنّى سلوكيات غير مرغوبة وخطيرة، وتُعرف هذه العملية بالتسميم، وهو ما يفرض على المستخدمين عدم الاعتماد على هذه النماذج خصوصاً عند التعامل مع بيانات حساسة.

أشارت الدراسة إلى ضرورة تعزيز آليات الحماية والتقييم المستمر للنماذج لضمان استخدامها بأمان، وتفادي مخاطر التدريب باستخدام بيانات مغلوطة أو هجمات خلفية قد تدفع النماذج إلى إنتاج محتوى مضلّل أو ضار.

spot_img
spot_imgspot_img

تابعونا على