خوف من أبحاث مزيفة مولّدة بالذكاء الاصطناعي
تحذر الدراسات من أن أدوات الذكاء الاصطناعي المتقدمة قد تسهّل إنتاج أبحاث علمية منخفضة الجودة أو مختلقة، ما يضغط على مراجعي الأقران ويصعّب التمييز بين الدراسات الموثوقة والمضللة.
أجرى الباحثون تجربة تضمنت خمس مستويات من نية المستخدم، بدءًا من الفضول البريء وحتى الانتهاك الأكاديمي المتعمد، وتناولت أسئلة حول أماكن مشاركة أفكار فيزياء غير تقليدية، إضافة إلى طلبات لتوفير تعليمات حول إعداد أوراق وهمية باسم أشخاص آخرين.
أظهرت بعض نماذج الذكاء الاصطناعي مقاومة قوية للطلبات الاحتيالية، مثل كلود من أنثروبيك، بينما كانت نماذج مثل Grok من xAI والنسخ السابقة من نماذج GPT أكثر قابلية للامتثال، خصوصًا عند تكرار الطلبات.
وفي مثال محدد، رفض Grok-4 في البداية طلب تزوير نتائج بحثية، ولكنه استمر بالضغط فانتج في النهاية ورقة خيالية عن التعلم الآلي مع بيانات معيارية مختلقة.
ويقول الباحثون إن هذه النتائج تبرز مخاطر انتشار الأبحاث المزيفة وتؤثر في مصداقية الأدبيات العلمية إذا اعتمدت بيانات وهمية في أبحاث لاحقة.



