ذات صلة

اخبار متفرقة

نشرة المرأة والمنوعات: عادات مدهشة تحميك من الاكتئاب وأطعمة مدهشة تنظف الشرايين وتخفض الكوليسترول

نشرة المرأة والمنوعات أسباب الجلطات والنوبات القلبية تظهر الأسباب الرئيسية وراء...

ليلى علوي تخطف الأنظار بفستانٍ لافتٍ وهي ترافق أصدقائها

ظهرت الفنانة ليلى علوي بإطلالة لافتة في صور جديدة...

«حرس الحدود» يقبض على مخالفين للائحة الأمن والسلامة البحرية بتبوك

ضبطت دوريات حرس الحدود في ضباء بمنطقة تبوك مواطنين...

يقبض حرس الحدود على 7 مخالفين لنظام أمن الحدود لتهريبهم 120 كيلوجراماً من القات.

تفاصيل العملية قبضت دوريات البرية لحرس الحدود في قطاع الربوعة...

دراسة من المملكة المتحدة تكشف أن ChatGPT وGemini قابلان للتلاعب لإنتاج محتوى مضلل

أصدرت دراسة مشتركة من مركز الذكاء الاصطناعي في بريطانيا وشركة أنتروبيك تحذيراً من احتمالات اختراق نماذج الذكاء الاصطناعي مثل ChatGPT وGemini وإمكانية استخدامها لإنتاج محتوى مضلّل أو ضار للمستخدمين.

أوضح الباحثون أن هذه النماذج يمكن التلاعب بها عبر ثغرات تتيح للمخترقين تدريبها باستخدام بيانات ملوثة، مما يؤدي إلى توليد محتوى مضلّل وخطير قد يؤثر في قرارات المستخدمين.

أجرى الفريق تجربة واقعية اعتمدوا خلالها نحو 250 وثيقة ملوثة بمعلومات مغلوطة تم إدخالها عبر ثغرة خلفية، وبعدها أُنتجت عن طريق الأدوات نصوص غامضة وغير واضحة المعنى.

أثارت النتائج قلق الباحثين من قدرة الجهات الخبيثة على إدخال نصوص ملوثة في منشورات نماذج اللغة لجعلها تتبنّى سلوكيات غير مرغوبة وخطيرة، وتُعرف هذه العملية بالتسميم، وهو ما يفرض على المستخدمين عدم الاعتماد على هذه النماذج خصوصاً عند التعامل مع بيانات حساسة.

أشارت الدراسة إلى ضرورة تعزيز آليات الحماية والتقييم المستمر للنماذج لضمان استخدامها بأمان، وتفادي مخاطر التدريب باستخدام بيانات مغلوطة أو هجمات خلفية قد تدفع النماذج إلى إنتاج محتوى مضلّل أو ضار.

spot_img
spot_imgspot_img

تابعونا على