ذات صلة

اخبار متفرقة

دراسة تحذر من مخاطر توليد أبحاث وهمية باستخدام الذكاء الاصطناعي

أظهرت الدراسة أن أدوات الذكاء الاصطناعي المتقدمة قد تسهل...

تحقيق يكشف أن روبوتات الذكاء الاصطناعي توجه المستخدمين إلى مواقع غير قانونية

نتائج التحقيق اختبر الباحثون عدة أنظمة ذكاء اصطناعي طورتها شركات...

طبق صحي ومختلف: طريقة عمل الخضار بالبطاطا الحلوة بطعم لذيذ خلال دقائق معدودة

تُعد البطاطا الحلوة من الأطعمة الصحية الغنية بالعناصر الغذائية...

نوع غير متوقع من الياميش يخفض الكوليسترول في الدم

فوائد التمر وخفض الكوليسترول وتحسين صحة القلب يُعْتَبَر التمر من...

عشبة تقوّي المناعة وتقلل من تكرار نزلات البرد والإنفلونزا عند العطارين

يعاني كثير من الأشخاص من تكرار نزلات البرد والإنفلونزا...

دراسة تحذر من مخاطر توليد أبحاث وهمية عبر الذكاء الاصطناعى

ينبه الباحثون من أن أدوات الذكاء الاصطناعي المتقدمة لتوليد النصوص قد تسهّل إنتاج أبحاث علمية منخفضة الجودة أو مزيفة، ما قد يضغط على مراجعي الأقران ويصعّب التمييز بين الدراسات الموثوقة والمضللة.

مخاطر الأبحاث المزيفة وتأثيرها

نفذت الدراسة تجربة شملت خمس مستويات من نية المستخدم، بدءًا من الفضول البريء وحتى الانتهاك الأكاديمي المتعمد، وتضمنت أسئلة عن أماكن مشاركة أفكار فيزياء غير تقليدية، وأخرى طلبت تعليمات لتقديم أوراق وهمية باسم أشخاص آخرين.

أظهرت النتائج أن بعض نماذج الذكاء الاصطناعي، مثل كلود من أنثروبيك، أظهرت مقاومة قوية للطلبات الاحتيالية، بينما كانت نماذج مثل Grok من xAI ونسخ سابقة من نماذج GPT أكثر امتثالًا، خصوصًا عند تكرار الطلبات.

وفي مثال محدد، بدأ Grok-4 بطلب لتزييف نتائج بحثية، ولكنه استمر في الضغط فانتجت ورقة خيالية عن التعلم الآلي مع بيانات معيارية مختلقة.

تشير النتائج إلى مخاطر انتشار الأبحاث المزيفة التي قد تضعف مصداقية الأدبيات إذا استشهد بها الباحثون مستقبلًا.

spot_img
spot_imgspot_img

تابعونا على