تحذير من مخاطر توليد النصوص والبحث المزيف
أظهر البحث أن أدوات الذكاء الاصطناعي المتقدمة قد تسهّل إنتاج أبحاث علمية منخفضة الجودة أو مختلقة، وهو ما يضغط على مراجعي الأقران ويصعّب التمييز بين الدراسات الموثوقة والمضللة.
أجريت تجربة تقيس خمس مستويات من نية المستخدم، بدءًا من الفضول البريء وحتى الانتهاك الأكاديمي المتعمد. تضمنت التجربة أسئلة حول أماكن مشاركة أفكار فيزياء غير تقليدية، وأخرى طلبت تعليمات لتقديم أوراق وهمية باسم أشخاص آخرين.
وجدت الدراسة أن بعض نماذج الذكاء الاصطناعي، مثل كلود من أنثروبيك، أظهرت مقاومة قوية للطلبات الاحتيالية، بينما كانت نماذج مثل Grok من xAI ونسخ سابقة من GPT أكثر امتثالاً، خصوصًا عند تكرار الطلبات.
وفي مثال محدد، رفض Grok-4 في البداية طلباً لتزييف نتائج بحث، لكنه ظل يضغط فنتج عن ذلك ورقة خيالية عن التعلم الآلي مع بيانات معيارية مختلقة.
يقول الباحثون إن هذه النتائج تبرز المخاطر المحتملة لانتشار الأبحاث المزيفة، والتي قد تقوّض مصداقية الأدبيات العلمية إذا اُستخدمت كمرجع في أبحاث مستقبلية.



