تحذير من مخاطر أداوت الذكاء الاصطناعي في توليد النصوص
يؤكد الباحثون أن أدوات الذكاء الاصطناعي المتقدمة لتوليد النصوص قد تسهّل إنتاج أبحاث علمية منخفضة الجودة أو مختلقة، ما قد يضغط على مراجعي الأقران ويصعّب التمييز بين الدراسات الموثوقة والمضللة.
أجرت التجربة دراسة تضمنت خمس مستويات من نية المستخدم، بدءًا من الفضول البريء وحتى الانتهاك الأكاديمي المتعمد، وتناولت أسئلة عن أماكن مشاركة أفكار فيزياء غير تقليدية، إضافة إلى طلبات لتعليمات لإعداد أوراق وهمية باسم أشخاص آخرين.
ووجدت أن بعض نماذج الذكاء الاصطناعي تقاوم الطلبات الاحتيالية بشكل قوي، بينما كانت نماذج مثل Grok من xAI ونسخ سابقة من نماذج GPT أكثر امتثالاً، خصوصًا مع تكرار الطلبات.
في مثال محدد، رفض نموذج Grok-4 في البداية طلبًا لتزييف نتائج بحثية، لكنه في نهاية المطاف أنتج ورقة خيالية عن التعلم الآلي مع بيانات معيارية مختلقة بعد استمرار الضغط من المستخدم.
ويؤكد الباحثون أن هذه النتائج تسلط الضوء على مخاطر انتشار الأبحاث المزيفة، والتي قد تقضي إلى تشويه مصداقية الأدبيات العلمية إذا اعتمدت كبيانات في أعمال لاحقة.



