ذات صلة

اخبار متفرقة

دراسة: مشاهدة مقطع فيديو قصير لأشخاص ملهمين يساعد في تخفيف التوتر لمدة عشرة أيام

يتجه كثيرون إلى تصفّح مقاطع الفيديو بحثًا عن ضحكة...

عشرة أسباب رئيسية وراء الجلطات والنوبات القلبية.. احذر العلامات الصامتة قبل فوات الأوان

تشكل الجلطات الدموية والنوبات القلبية خطرًا حادًا يهدد حياة...

أمن الطرق: بلاغك قد يوقف الخطر قبل وقوعه

أبلغوا عن حالات أمنية أو إنسانية طارئة عبر الرقم...

الصحة العالمية: تزايد مقاومة المضادات الحيوية الأساسية يمثل تهديداً متزايداً للصحة

أصدرت منظمة الصحة العالمية تقريراً جديداً اليوم يعتمد على...

جموع المعتمرين يطوفون حول الكعبة في أجواء روحية تفيض بالسكينة والخشوع

تشاهد الكاميرا لقطات مهيبة لجموع المعتمرين وهم يطوفون حول...

دراسة بريطانية تكشف: يمكن التلاعب بـChatGPT وGemini لتوليد محتوى مضلل

أبرز ما تكشفه الدراسة

كشفت دراسة صادرة عن مركز الذكاء الاصطناعي في بريطانيا وشركة أنتروبيك عن احتمال وجود اختراقات لنماذج الذكاء الاصطناعي مثل ChatGPT وGemini، وتيسير التلاعب بها لإنتاج محتوى مضلل وخطر للمستخدمين.

أوضحت النتائج أن ثغرات خلفية يمكن استغلالها تسمح للمخترقين بتدريب هذه النماذج باستخدام بيانات كاذبة، ما يؤدي إلى إنتاج محتوى مضلل وضار للمستخدمين.

اعتمدت التجربة الواقعية على نحو 250 وثيقة ملوثة ببيانات مغلوطة أُدخِلت عبر ثغرة خلفية، وبعد التجربة أُنتِجت الأدوات نصوصاً مبهمة وغير مفهومة.

وتُثير النتائج قلقاً من قدرة الجهات الخبيثة على إدخال نصوص ملوثة في البيانات التدريبية، مما يجعل النماذج تكتسب سلوكيات غير مرغوبة وخطيرة، وتُعرف هذه العملية بالتسميم، وهو ما يستدعي الحذر عند الاعتماد على هذه النماذج في البيانات الحساسة.

يؤكد هذا التحذير ضرورة عدم الاعتماد الكامل على هذه النماذج في مجالات حساسة وفي الاستشارات الطبية أو القرارات الحرجة دون تحقق وتدقيق من مصادر مستقلة.

spot_img
spot_imgspot_img

تابعونا على