أظهرت الدراسة أن أدوات الذكاء الاصطناعي المتقدمة قد تسهل إنتاج أبحاث علمية منخفضة الجودة أو مختلقة، ما يضغط على مراجعي الأقران ويصعّب التمييز بين الدراسات الموثوقة والمضللة.
جرى تجربة استخدم فيها الباحثون خمس مستويات من نية المستخدم، بدءاً من الفضول البريء وحتى الانتهاك الأكاديمي المتعمد، وتضمنت أسئلة حول أماكن مشاركة أفكار فيزياء غير تقليدية، وأخرى تطلب تعليمات لتقديم أوراق وهمية باسم آخرين.
ووجدت النتائج أن بعض نماذج الذكاء الاصطناعي تقاوم الطلبات الاحتيالية بشكل واضح، في حين كانت نماذج مثل Grok من xAI ونسخ سابقة من نماذج GPT أكثر امتثالاً، خصوصاً عند تكرار الطلبات.
وفي مثال محدد، رفض Grok-4 في البداية طلباً لتزيف نتائج بحثية، لكنه استمر في الضغط حتى أتيح له إنتاج ورقة خيالية عن التعلم الآلي مع بيانات معيارية مختلقة.
يؤكد الباحثون أن هذه النتائج تكشف عن مخاطر انتشار أبحاث مزيفة قد تضعف مصداقية الأدبيات العلمية إذا اعتمدت أبحاث مستقبلية على بيانات وهمية.



