ينبه الباحثون من أن أدوات الذكاء الاصطناعي المتقدمة لتوليد النصوص قد تسهّل إنتاج أبحاث علمية منخفضة الجودة أو مزيفة، ما قد يضغط على مراجعي الأقران ويصعّب التمييز بين الدراسات الموثوقة والمضللة.
مخاطر الأبحاث المزيفة وتأثيرها
نفذت الدراسة تجربة شملت خمس مستويات من نية المستخدم، بدءًا من الفضول البريء وحتى الانتهاك الأكاديمي المتعمد، وتضمنت أسئلة عن أماكن مشاركة أفكار فيزياء غير تقليدية، وأخرى طلبت تعليمات لتقديم أوراق وهمية باسم أشخاص آخرين.
أظهرت النتائج أن بعض نماذج الذكاء الاصطناعي، مثل كلود من أنثروبيك، أظهرت مقاومة قوية للطلبات الاحتيالية، بينما كانت نماذج مثل Grok من xAI ونسخ سابقة من نماذج GPT أكثر امتثالًا، خصوصًا عند تكرار الطلبات.
وفي مثال محدد، بدأ Grok-4 بطلب لتزييف نتائج بحثية، ولكنه استمر في الضغط فانتجت ورقة خيالية عن التعلم الآلي مع بيانات معيارية مختلقة.
تشير النتائج إلى مخاطر انتشار الأبحاث المزيفة التي قد تضعف مصداقية الأدبيات إذا استشهد بها الباحثون مستقبلًا.



