ذات صلة

اخبار متفرقة

دراسة: مشاهدة مقطع فيديو قصير لأشخاص ملهمين يساعد في تخفيف التوتر لمدة عشرة أيام

يتجه كثيرون إلى تصفّح مقاطع الفيديو بحثًا عن ضحكة...

عشرة أسباب رئيسية وراء الجلطات والنوبات القلبية.. احذر العلامات الصامتة قبل فوات الأوان

تشكل الجلطات الدموية والنوبات القلبية خطرًا حادًا يهدد حياة...

أمن الطرق: بلاغك قد يوقف الخطر قبل وقوعه

أبلغوا عن حالات أمنية أو إنسانية طارئة عبر الرقم...

الصحة العالمية: تزايد مقاومة المضادات الحيوية الأساسية يمثل تهديداً متزايداً للصحة

أصدرت منظمة الصحة العالمية تقريراً جديداً اليوم يعتمد على...

جموع المعتمرين يطوفون حول الكعبة في أجواء روحية تفيض بالسكينة والخشوع

تشاهد الكاميرا لقطات مهيبة لجموع المعتمرين وهم يطوفون حول...

دراسة بريطانية تكشف أن ChatGPT وGemini يمكن التلاعب بهما لتوليد محتوى مضلل

تنبيه حول مخاطر اختراق نماذج الذكاء الاصطناعي

حدّدت دراسة صادرة من مركز الذكاء الاصطناعي في بريطانيا وشركة أنتروبيك احتمال وقوع اختراقات لنماذج الذكاء الاصطناعي مثل ChatGPT وGemini وتلاعبها لإنتاج محتوى مضلل.

أظهر الباحثون أن هذه النماذج يمكن التلاعب بها عبر ثغرات خلفية تتيح للمخترقين تدريبها لإنتاج محتوى مضلل وخطير للمستخدمين من خلال إدخال بيانات كاذبة.

استندت الدراسة إلى تجربة واقعية استعان خلالها الباحثون بنحو 250 وثيقة ملوثة ببيانات مغلوطة تم إدخالها عبر ثغرة خلفية، وبعد التجربة أنتجت الأدوات نصوصاً مبهمة وغير مفهومة.

أثارت تلك النتائج قلق الباحثين من قدرة الجهات الخبيثة على إدخال نصوص ملوّثة لهذه النماذج لجعلها تكتسب سلوكيات غير مرغوبة وخطيرة، وتعرف هذه العملية باسم “التسميم”، وهو ما يستدعي الحذر من الاعتماد على هذه النماذج خاصة في التعامل مع البيانات الحساسة.

spot_img
spot_imgspot_img

تابعونا على