ذات صلة

اخبار متفرقة

يورونيوز: تفاوت كبير في سرعات الإنترنت والاتصال بالإنترنت في القطارات عبر جميع أنحاء أوروبا

تباين سرعة الإنترنت على متن القطارات الأوروبية تشهد رحلات القطار...

بيتكوين يهبط بأكثر من 2% في ظل استمرار التوترات التجارية بين الولايات المتحدة والصين

تراجع بيتكوين خلال التعاملات ليواصل موجة الانخفاض الأخيرة في...

الهند توقف بيع شراب الباراسيتامول للأطفال دون سن الرابعة بدون وصفة طبية

إجراءات حكومية بشأن شراب الباراسيتامول للأطفال في الهند نفذت سلطات...

نشرة المرأة والمنوعات: عادات مدهشة تحميك من الاكتئاب وأطعمة مدهشة تنظف الشرايين وتخفض الكوليسترول

نشرة المرأة والمنوعات أسباب الجلطات والنوبات القلبية تظهر الأسباب الرئيسية وراء...

ليلى علوي تخطف الأنظار بفستانٍ لافتٍ وهي ترافق أصدقائها

ظهرت الفنانة ليلى علوي بإطلالة لافتة في صور جديدة...

دراسة بريطانية تكشف أن ChatGPT وGemini يمكن التلاعب بهما لتوليد محتوى مضلل

تنبيه حول مخاطر اختراق نماذج الذكاء الاصطناعي

حدّدت دراسة صادرة من مركز الذكاء الاصطناعي في بريطانيا وشركة أنتروبيك احتمال وقوع اختراقات لنماذج الذكاء الاصطناعي مثل ChatGPT وGemini وتلاعبها لإنتاج محتوى مضلل.

أظهر الباحثون أن هذه النماذج يمكن التلاعب بها عبر ثغرات خلفية تتيح للمخترقين تدريبها لإنتاج محتوى مضلل وخطير للمستخدمين من خلال إدخال بيانات كاذبة.

استندت الدراسة إلى تجربة واقعية استعان خلالها الباحثون بنحو 250 وثيقة ملوثة ببيانات مغلوطة تم إدخالها عبر ثغرة خلفية، وبعد التجربة أنتجت الأدوات نصوصاً مبهمة وغير مفهومة.

أثارت تلك النتائج قلق الباحثين من قدرة الجهات الخبيثة على إدخال نصوص ملوّثة لهذه النماذج لجعلها تكتسب سلوكيات غير مرغوبة وخطيرة، وتعرف هذه العملية باسم “التسميم”، وهو ما يستدعي الحذر من الاعتماد على هذه النماذج خاصة في التعامل مع البيانات الحساسة.

spot_img
spot_imgspot_img

تابعونا على