انتشار روبوتات الدردشة المعتمدة على الذكاء الاصطناعي
تشهد روبوتات المحادثة المدعومة بالذكاء الاصطناعي انتشاراً واسعاً في الحياة اليومية، رغم تكرر الأخطاء. وتظل أنظمة مثل شات جي بي تي وجيميناي وكلاود تقدم أحياناً إجابات غير دقيقة، كما أشارت تقارير إلى أن نسب الأخطاء قد تبلغ نحو 45% في بعض السياقات.
تحذير من الاعتماد المفرط على الذكاء الاصطناعي
قلل الخبراء من الاعتماد الكامل على هذه الأنظمة، مشيرين إلى استمرار وجود أخطاء وتفاوت في الدقة، ولهذا يجب التحقق من المعلومات والاعتماد على التدقيق قبل اتخاذ قرارات.
ثقة المستخدمين رغم الأخطاء
كشف بحث حديث أجرته ستيفن شو وجادعون ناف من جامعة بنسلفانيا أن المستخدمين يميلون إلى تصديق إجابات الذكاء الاصطناعي حتى عندما تكون خاطئة، وأظهرت سلسلة تجارب أن نحو نصف المشاركين اختاروا الاعتماد على شات جي بي تي للإجابة عن أسئلة تتطلب التفكير والمعرفة، رغم أنها ليست إلزامية.
الاستسلام المعرفى وتأثيره
ركزت الدراسة على ظاهرة الاستسلام المعرفي، وهي ميل المستخدمين لقبول إجابات الذكاء الاصطناعي دون تدقيق، وبيّنت تجربة شملت 359 مشاركاً التزاماً بإجابات الذكاء الاصطناعي الصحيحة بنسبة 92.7%، في حين استمروا باتباع الإجابات الخاطئة بنسبة 79.8%، ما يفيد الاعتماد على التوصيات حتى حين تكون غير دقيقة.
مخاوف بشأن التفكير النقدي
تشير النتائج إلى تغير أوسع في طريقة تعامل البشر مع المعلومات واتخاذ القرار، فإسناد التفكير للأنظمة الذكية قد يضعف مهارات التفكير النقدي مع مرور الوقت، لذا تصبح عملية التحقق من المعلومات والتمسك بالقدرة على التقييم أمراً ضرورياً إلى جانب الاعتماد على الذكاء الاصطناعي.



