انتشرت روبوتات الدردشة المعتمدة على الذكاء الاصطناعي بشكل واسع خلال السنوات الأخيرة، وأصبحت جزءاً من الحياة اليومية رغم ما تعانيه من أخطاء متكررة. وتوضح الأدلة أن أنظمة مثل شات جي بي تي وجيميناي وكلاود لا تزال تقدم إجابات غير دقيقة في كثير من الأحيان، إذ أشارت دراسة بمرجعية BBC إلى أن معدل الأخطاء قد يصل إلى نحو 45% من الحالات.
تحذير من الاعتماد المفرط على الذكاء الاصطناعي
تشير نتائج بحث حديث إلى أن الاعتماد المفرط على هذه التكنولوجيا قد يضعف قدرة المستخدمين على التفكير النقدي، ويشجّع الدخول في قرارات مبنية على ثقة غير محكومة بالمراجعة الذاتية للمعلومة.
ثقة المستخدمين رغم الأخطاء
كشفت دراسة أن المستخدمين يميلون إلى تصديق إجابات الذكاء الاصطناعي حتى عندما تكون خاطئة. وفي سلسلة تجارب، اختار أكثر من نصف المشاركين استخدام شات جي بي تي للإجابة عن أسئلة تتطلب التفكير والمعرفة، رغم أن ذلك لم يكن إلزامياً.
الاستسلام المعرفي وتأثيره
ركزت الدراسة على مفهوم الاستسلام المعرفي، وهو ميل المستخدمين لقبول إجابات الذكاء الاصطناعي دون تدقيق. وفي تجربة ضمت 359 مشاركاً، التزم المشاركون بإجابات الذكاء الاصطناعي الصحيحة بنسبة 92.7%، بينما استمروا في اتباع الإجابات الخاطئة بنسبة 79.8%، ما يدل على اتباع التوصيات حتى عندما تكون غير دقيقة في نحو أربعة من أصل خمسة تفاعلات.
مخاوف بشأن التفكير النقدي
تشير النتائج إلى تحول في طريقة تعامل البشر مع المعلومات واتخاذ القرار، حيث أصبح من الأسهل تفويض عملية التفكير إلى الأنظمة الذكية. وأوضح الباحثون أن هذا الاتجاه قد يؤدي إلى تراجع مهارات التفكير النقدي مع مرور الوقت، مع إلحاق أهمية بالحفاظ على القدرة على التحقق من المعلومات وعدم الاعتماد الكامل على الذكاء الاصطناعي في اتخاذ القرارات.



