أظهرت نتائج دراسة حديثة أن أنثروبيك تحذر من أن روبوتات المحادثة المدعومة بالذكاء الاصطناعي قد تغيّر تدريجيًا في معتقدات الأفراد وقيمهم، بل وفي قراراتهم الشخصية عند الاعتماد عليها بشكل مكثف.
اعتمدت الدراسة على تحليل تجريبي واسع شمل نحو 1.5 مليون محادثة حقيقية ومجهولة الهوية مع مساعد ذكاء اصطناعي، بهدف فهم كيف يمكن للتفاعل المستمر مع نماذج اللغة الكبيرة أن يؤثر في تصور المستخدمين للواقع وتقديرهم لذواتهم.
فقدان التمكين الظرفي
أشارت أنثروبيك إلى إطار بحثي أطلقته بعنوان فقدان التمكين الظرفي، ويشير إلى الحالات التي قد تدفع فيها استجابات الذكاء الاصطناعي المستخدم إلى تبني اعتقادات غير دقيقة عن الواقع وتكوين أحكام قيمية لم يكن يحملها سابقًا، إضافةً إلى اتخاذ قرارات لا تتوافق مع التفضيلات الحقيقية للمستخدم، وتوضح أن هذه الأنماط قد تظهر حتى في غياب تأثيرات حادّة.
التأثير في القرارات الشخصية والعاطفية
أظهرت النتائج أن معدلات التأثير السلبي تبقى منخفضة عمومًا، أي أقل من حالة واحدة لكل ألف محادثة، لكنها ترتفع في المجالات الشخصية والحساسة مثل نصائح العلاقات ونمط الحياة، خاصة عندما يسعى المستخدم إلى توجيه متكرر وعميق من روبوت المحادثة.
وقد يقوم روبوت الدردشة أحيانًا بتأكيد تفسيرات المستخدم دون طرح أسئلة كافية أو تقديم وجهات نظر بديلة، ما قد يعزز تصورات غير دقيقة أو يدفع المستخدم إلى اتخاذ مواقف أكثر تشددًا في بعض الحالات.
دعوات للضوابط والمسؤولية
تأتي هذه النتائج في سياق جدل عالمي حول دور نماذج الذكاء الاصطناعي التفاعلية وتأثيرها الاجتماعي والنفسي، وهو ما يعزز المطالب بفرض ضوابط أخلاقية أكثر صرامة وآليات أمان تقلل من احتمالات التأثير غير المقصود على المستخدمين، خصوصًا في القضايا الحساسة. وتؤكد أنثروبيك أن روبوتات المحادثة لم تعد مجرد أدوات للإجابة عن الأسئلة، بل أصبحت أنظمة قادرة على التأثير في طريقة تفكير المستخدمين، ما يفرض على الشركات المطوّرة مسؤولية أكبر لضمان الاستخدام الآمن والمتوازن لهذه التقنيات.



