انتشر الاعتماد على روبوتات الدردشة المعتمدة على الذكاء الاصطناعي بشكل واسع خلال السنوات القليلة الماضية، وأصبحت جزءاً من الحياة اليومية رغم ما تعانيه من أخطاء متكررة.
تشير البيانات إلى أن أنظمة مثل شات جي بى تى وجيميناي وكلاود لا تزال تقدم إجابات غير دقيقة في كثير من الأحيان، حيث أظهرت دراسة أُجريت في أكتوبر أن نسبة الأخطاء قد تبلغ 45% من الحالات.
تحذير من الاعتماد المفرط على الذكاء الاصطناعي
ينبه التحذير من الاعتماد المفرط على الذكاء الاصطناعي إلى مخاطر تفويت مهارات التفكير والتحقق من المعلومات عندما يتم الاعتماد الكامل على الأنظمة الذكية في اتخاذ القرارات.
ثقة المستخدمين رغم الأخطاء
كشفت ورقة بحثية حديثة أعدها ستيفن شو وأستاذ التسويق جدعون ناف من جامعة بنسلفانيا أن المستخدمين يميلون إلى تصديق إجابات الذكاء الاصطناعي حتى عندما تكون خاطئة، وتبينت سلسلة من التجارب أن أكثر من 50% من المشاركين اختاروا استخدام شات جي بى تى للإجابة عن أسئلة تتطلب التفكير والمعرفة، رغم أن الاختيار لم يكن إلزامياً.
الاستسلام المعرفى وتأثيره
ركزت الدراسة على مفهوم الاستسلام المعرفى، وهو ميل المستخدمين إلى قبول إجابات الذكاء الاصطناعي دون تدقيق، وفي تجربة شملت 359 مشاركاً التزم المشاركون بإجابات الذكاء الاصطناعي الصحيحة بنسبة 92.7%، بينما استمروا في اتباع الإجابات الخاطئة بنسبة 79.8%، وأظهرت النتائج أن المستخدمين يتبعون التوصيات حتى عندما تكون غير دقيقة في نحو 4 من كل 5 تفاعلات.
مخاوف بشأن التفكير النقدي
تشير نتائج الدراسة إلى تحوّل أوسع في طريقة التعامل مع المعلومات واتخاذ القرار، حيث أصبح من السهل تفويض عملية التفكير إلى الأنظمة الذكية، وهو ما قد يؤدي مع مرور الوقت إلى تراجع مهارات التفكير النقدي، وأكد الباحثون أهمية الحفاظ على القدرة على التحقق من المعلومات وعدم الاعتماد الكامل على الذكاء الاصطناعي في اتخاذ القرارات.



