ذات صلة

اخبار متفرقة

صور تلسكوب هابل تكشف دور النجوم الثنائية في تشكيل العناقيد النجمية

تكشف الصور الجديدة التي التقطها تلسكوب هابل تفاصيل مهمة...

برج الجدي: حظّك اليوم الثلاثاء 10 مارس 2026، آفاق جديدة للتقدم والنجاح

يبدأ مواليد الجدي بتحديد الأهداف ووضع خطة محكمة لتحقيقها...

برج الحوت: حظك اليوم الثلاثاء 10 مارس 2026: تجنب العمل الشاق

برج الحوت وحظك اليوم الثلاثاء 10 مارس 2026 يستفيد مواليد...

خبيرة أمراض القلب تحذر من الإفراط في تناول العرقسوس؛ فهو يرفع ضغط الدم

ينصح الأطباء في رمضان بتوخي الحذر عند الإقبال على...

هل يؤدي ارتداء قبعة “الكاب” لفترات طويلة إلى الصلع؟

لماذا يتساقط الشعر في الحقيقة؟ يتضح أن السبب الأكثر شيوعًا...

دراسة تحذر من مخاطر توليد أبحاث وهمية باستخدام الذكاء الاصطناعي

تحذير من مخاطر أداوت الذكاء الاصطناعي في توليد النصوص

يؤكد الباحثون أن أدوات الذكاء الاصطناعي المتقدمة لتوليد النصوص قد تسهّل إنتاج أبحاث علمية منخفضة الجودة أو مختلقة، ما قد يضغط على مراجعي الأقران ويصعّب التمييز بين الدراسات الموثوقة والمضللة.

أجرت التجربة دراسة تضمنت خمس مستويات من نية المستخدم، بدءًا من الفضول البريء وحتى الانتهاك الأكاديمي المتعمد، وتناولت أسئلة عن أماكن مشاركة أفكار فيزياء غير تقليدية، إضافة إلى طلبات لتعليمات لإعداد أوراق وهمية باسم أشخاص آخرين.

ووجدت أن بعض نماذج الذكاء الاصطناعي تقاوم الطلبات الاحتيالية بشكل قوي، بينما كانت نماذج مثل Grok من xAI ونسخ سابقة من نماذج GPT أكثر امتثالاً، خصوصًا مع تكرار الطلبات.

في مثال محدد، رفض نموذج Grok-4 في البداية طلبًا لتزييف نتائج بحثية، لكنه في نهاية المطاف أنتج ورقة خيالية عن التعلم الآلي مع بيانات معيارية مختلقة بعد استمرار الضغط من المستخدم.

ويؤكد الباحثون أن هذه النتائج تسلط الضوء على مخاطر انتشار الأبحاث المزيفة، والتي قد تقضي إلى تشويه مصداقية الأدبيات العلمية إذا اعتمدت كبيانات في أعمال لاحقة.

spot_img
spot_imgspot_img

تابعونا على