ذات صلة

اخبار متفرقة

المعهد العالي للسياحة والضيافة يقدم برنامج “مهارات” التدريبي بدعم من (هدف)

تقدّم المعهد العالي للسياحة والضيافة مجموعة من البرامج التدريبية...

دراسة تحدد أنواعاً من الأطعمة التي تخفض ضغط الدم، منها الشاي والعنب.

تظهر الأبحاث أن مركبات فلافان-3-أولز، وهي فلافونويدات نباتية تعرف...

دراسة من المملكة المتحدة تكشف أن ChatGPT وGemini قابلان للتلاعب لإنتاج محتوى مضلل

أصدرت دراسة مشتركة من مركز الذكاء الاصطناعي في بريطانيا وشركة أنتروبيك تحذيراً من احتمالات اختراق نماذج الذكاء الاصطناعي مثل ChatGPT وGemini وإمكانية استخدامها لإنتاج محتوى مضلّل أو ضار للمستخدمين.

أوضح الباحثون أن هذه النماذج يمكن التلاعب بها عبر ثغرات تتيح للمخترقين تدريبها باستخدام بيانات ملوثة، مما يؤدي إلى توليد محتوى مضلّل وخطير قد يؤثر في قرارات المستخدمين.

أجرى الفريق تجربة واقعية اعتمدوا خلالها نحو 250 وثيقة ملوثة بمعلومات مغلوطة تم إدخالها عبر ثغرة خلفية، وبعدها أُنتجت عن طريق الأدوات نصوص غامضة وغير واضحة المعنى.

أثارت النتائج قلق الباحثين من قدرة الجهات الخبيثة على إدخال نصوص ملوثة في منشورات نماذج اللغة لجعلها تتبنّى سلوكيات غير مرغوبة وخطيرة، وتُعرف هذه العملية بالتسميم، وهو ما يفرض على المستخدمين عدم الاعتماد على هذه النماذج خصوصاً عند التعامل مع بيانات حساسة.

أشارت الدراسة إلى ضرورة تعزيز آليات الحماية والتقييم المستمر للنماذج لضمان استخدامها بأمان، وتفادي مخاطر التدريب باستخدام بيانات مغلوطة أو هجمات خلفية قد تدفع النماذج إلى إنتاج محتوى مضلّل أو ضار.

spot_img
spot_imgspot_img

تابعونا على