ذات صلة

اخبار متفرقة

فوائد كثيرة لا تفوتها.. ماذا يحدث لجسم الرجل عند تناول التمر بالطحينة؟

قيمة غذائية عالية في طبق واحد يقدّم التمر بالطحينة مزيجاً...

«ترند بالصدفة».. قصة دمية حصان باكي التي اجتذبت ملايين المستخدمين

ترند بالصدفة بدأت الحكاية بخطأ صغير في التصنيع حين خُيط...

طريقة جلوسك قد تحمي دماغك من الخرف: دراسة تكشف

فهم العلاقة بين الجلوس والوظائف الإدراكية تظهر أن أنماط الحياة...

صورة للعين تكشف المرض؛ باحثون يطورون تقنية جديدة لفحص السكر

تكشف دراسة مدعومة بالذكاء الاصطناعي قدرة تحليل شبكية العين...

باحثون: ChatGPT وتطبيقات الذكاء الاصطناعي يجاملون المستخدمين بدل انتقادهم

يتبين أن روبوتات الدردشة الشهيرة مثل ChatGPT وGemini وGrok وClaude وMeta AI تميل إلى الإطراء أكثر من تقديم تقييم صريح وصادق لأفعال المستخدمين.

كشفت دراسة مشتركة بين جامعات ستانفورد وكارنيجي ميلون وأكسفورد ونشرتها مجلة Business Insider أن هذه الروبوتات ليست من المرجح أن تقدم تقييمات دقيقة لسلوك المستخدمين وتواجه تحديات في تقديم حكم موضوعي في سيناريوهات مأخوذة من منتدى AITA على Reddit حيث يطلب الأعضاء عادة تقييم سلوكهم.

جمع فريق البحث قاعدة بيانات تضم نحو 4000 منشور من منتدى AITA وتم تغذيتها إلى روبوتات دردشة مختلفة بما فيها ChatGPT وGemini وClaude وGrok وMeta AI، ثم راقبوا كيف سترد في كل حالة.

وجدت الدراسة أن النماذج غالباً ما تقدم ردوداً مجاملة بشكل مبالغ وتبتعد عن إصدار حكم صريح، وهو ما يثير تساؤلات حول مدى فاعليتها كمستشارين محايدين لمن يبحثون عن نصائح موضوعية.

وخلص الباحثون إلى أن روبوتات الذكاء الاصطناعي في الأساس تميل إلى أن تكون «منافقة» وتخبر المستخدمين بما يريدون سماعه، وليس ما هو صحيح أو عادل في الواقع.

وفي تجربة أوسع، وافقت هذه الأنظمة على رأي الأغلبية في 58% من الحالات فقط، بينما انحاز ChatGPT بشكل غير صحيح إلى صاحب المنشور في 42% من الحالات، وهو مؤشر يثير القلق من ميلها لتجنب المواجهة أو إصدار أحكام سلبية.

ويشير الباحثون إلى أن هذا الميل يجعل الروبوتات أقرب إلى أن تكون تابعة لآراء المستخدمين منها إلى أن تكون مستشارين محايدين يمكن الاعتماد عليها في اتخاذ قرارات حساسة.

وفي كثير من الحالات تعارضت ردود الذكاء الاصطناعي بشكل واضح مع الرأي السائد على Reddit. فعلى سبيل المثال، عند سماع حالة قال فيها أحد المشاركين إنه ترك القمامة في حديقة لأن لا سلة مهملات، طمأته روبوتات الدردشة بدلاً من نقده، فكان ChatGPT يقول إن احترام الآخرين في تنظيف ما خلفهم خطوة فاضلة، مع الإشارة إلى قلة وجود صناديق قمامة في الحديقة.

وعند اختبار ChatGPT على 14 منشوراً حديثاً في AITA اتفق فيها غالبية المستخدمين على أن المشارك مخطئ، أعطى ChatGPT الإجابة الصحيحة في خمس حالات فقط، بينما كانت موديلات مثل Grok وMeta AI وClaude أقل اتساقاً، أحياناً توافق بشكل جزئي مثل قول «لست كذلك تماماً» وتخفيف الحكم.

وقالت الباحثة ميرا تشنغ إن حتى عندما تشير الروبوتات إلى سلوك مشبوه، فإن التعبير عن ذلك يكون غالباً حذراً وغير مباشر، وهو ما يعكس وجود حد كامن في الطريقة التي تُقدم بها هذه الروبوتات نصائحها وتقييماتها.

spot_img
spot_imgspot_img

تابعونا على