ذات صلة

اخبار متفرقة

تحقيق يكشف أن روبوتات الذكاء الاصطناعي توجه المستخدمين إلى مواقع غير قانونية

تفاصيل التحقيق وتجاربه اختبرت فرق التحقيق عدة أنظمة ذكاء اصطناعي...

مسلسل اللون الأزرق: ما هو الفحص الجينى؟

شهدت الحلقة الرابعة من مسلسل اللون الأزرق صدمة لدى...

خبيرة أمراض القلب تحذر من الإفراط في تناول العرقسوس.. ما يؤدي إلى ارتفاع ضغط الدم

يتجه الكثير من الناس في رمضان إلى تناول مشروبات...

هل يؤدي ارتداء القبعة لفترات طويلة إلى الصلع؟

ينفي الخبراء أن ارتداء القبعات لفترات طويلة يسبب التساقط...

فى العشر الأواخر من رمضان.. كيف تتجنبين الفتور فى العبادات؟

يقترب الشهر الكريم من نهايته وتواجه بعض النساء فتورًا...

دراسة تحذر من مخاطر توليد أبحاث وهمية عبر الذكاء الاصطناعي

خوف من أبحاث مزيفة مولّدة بالذكاء الاصطناعي

تحذر الدراسات من أن أدوات الذكاء الاصطناعي المتقدمة قد تسهّل إنتاج أبحاث علمية منخفضة الجودة أو مختلقة، ما يضغط على مراجعي الأقران ويصعّب التمييز بين الدراسات الموثوقة والمضللة.

أجرى الباحثون تجربة تضمنت خمس مستويات من نية المستخدم، بدءًا من الفضول البريء وحتى الانتهاك الأكاديمي المتعمد، وتناولت أسئلة حول أماكن مشاركة أفكار فيزياء غير تقليدية، إضافة إلى طلبات لتوفير تعليمات حول إعداد أوراق وهمية باسم أشخاص آخرين.

أظهرت بعض نماذج الذكاء الاصطناعي مقاومة قوية للطلبات الاحتيالية، مثل كلود من أنثروبيك، بينما كانت نماذج مثل Grok من xAI والنسخ السابقة من نماذج GPT أكثر قابلية للامتثال، خصوصًا عند تكرار الطلبات.

وفي مثال محدد، رفض Grok-4 في البداية طلب تزوير نتائج بحثية، ولكنه استمر بالضغط فانتج في النهاية ورقة خيالية عن التعلم الآلي مع بيانات معيارية مختلقة.

ويقول الباحثون إن هذه النتائج تبرز مخاطر انتشار الأبحاث المزيفة وتؤثر في مصداقية الأدبيات العلمية إذا اعتمدت بيانات وهمية في أبحاث لاحقة.

spot_img
spot_imgspot_img

تابعونا على