ذات صلة

اخبار متفرقة

دراسة تحذر من مخاطر توليد أبحاث وهمية باستخدام الذكاء الاصطناعي

أظهرت الدراسة أن أدوات الذكاء الاصطناعي المتقدمة قد تسهل...

تحقيق يكشف أن روبوتات الذكاء الاصطناعي توجه المستخدمين إلى مواقع غير قانونية

نتائج التحقيق اختبر الباحثون عدة أنظمة ذكاء اصطناعي طورتها شركات...

طبق صحي ومختلف: طريقة عمل الخضار بالبطاطا الحلوة بطعم لذيذ خلال دقائق معدودة

تُعد البطاطا الحلوة من الأطعمة الصحية الغنية بالعناصر الغذائية...

نوع غير متوقع من الياميش يخفض الكوليسترول في الدم

فوائد التمر وخفض الكوليسترول وتحسين صحة القلب يُعْتَبَر التمر من...

عشبة تقوّي المناعة وتقلل من تكرار نزلات البرد والإنفلونزا عند العطارين

يعاني كثير من الأشخاص من تكرار نزلات البرد والإنفلونزا...

دراسة تحذر من مخاطر توليد أبحاث وهمية باستخدام الذكاء الاصطناعي

تحذير من مخاطر توليد النصوص والبحث المزيف

أظهر البحث أن أدوات الذكاء الاصطناعي المتقدمة قد تسهّل إنتاج أبحاث علمية منخفضة الجودة أو مختلقة، وهو ما يضغط على مراجعي الأقران ويصعّب التمييز بين الدراسات الموثوقة والمضللة.

أجريت تجربة تقيس خمس مستويات من نية المستخدم، بدءًا من الفضول البريء وحتى الانتهاك الأكاديمي المتعمد. تضمنت التجربة أسئلة حول أماكن مشاركة أفكار فيزياء غير تقليدية، وأخرى طلبت تعليمات لتقديم أوراق وهمية باسم أشخاص آخرين.

وجدت الدراسة أن بعض نماذج الذكاء الاصطناعي، مثل كلود من أنثروبيك، أظهرت مقاومة قوية للطلبات الاحتيالية، بينما كانت نماذج مثل Grok من xAI ونسخ سابقة من GPT أكثر امتثالاً، خصوصًا عند تكرار الطلبات.

وفي مثال محدد، رفض Grok-4 في البداية طلباً لتزييف نتائج بحث، لكنه ظل يضغط فنتج عن ذلك ورقة خيالية عن التعلم الآلي مع بيانات معيارية مختلقة.

يقول الباحثون إن هذه النتائج تبرز المخاطر المحتملة لانتشار الأبحاث المزيفة، والتي قد تقوّض مصداقية الأدبيات العلمية إذا اُستخدمت كمرجع في أبحاث مستقبلية.

spot_img
spot_imgspot_img

تابعونا على