أظهرت أنثروبيك من خلال تحليل نحو 1.5 مليون محادثة حقيقية ومجهولة الهوية مع مساعد الذكاء الاصطناعي كلود كيف يمكن أن يؤثر التفاعل المستمر مع نماذج اللغة الكبيرة في تصور المستخدمين للواقع وأحكامهم الفردية.
طرحت أنثروبيك إطاراً بحثياً جديداً سمته «فقدان التمكين الظرفي»، وهو يشير إلى حالات قد يدفع فيها استجابات الذكاء الاصطناعي المستخدم إلى اعتماد معتقدات غير دقيقة عن الواقع وتكوين أحكام قيمية جديدة واتخاذ قرارات لا تتوافق مع تفضيلاته الحقيقية، حتى دون وجود تأثيرات حادة أو مباشرة.
أظهرت النتائج أن معدلات التأثير السلبي تكون عادة منخفضة (أقل من حالة لكل ألف محادثة)، لكنها ترتفع في المجالات الشخصية والحساسة مثل نصائح العلاقات أو قرارات نمط الحياة، خصوصاً عند طلب توجيه متكرر وعميق من الروبوت.
أشارت مدونة أنثروبيك إلى أن روبوت المحادثة قد يؤكد تفسيرات المستخدم دون طرح أسئلة كافية أو تقديم وجهات نظر بديلة، ما قد يعزز تصورات غير دقيقة أو يدفع المستخدم لاتخاذ مواقف أكثر تطرفاً في بعض الحالات.
ويدور الجدل العالمي حول تنظيم نماذج الذكاء الاصطناعي التفاعلية، وتدعو الدراسة إلى ضوابط أخلاقية وآليات أمان أكثر صرامة لتقليل احتمال التأثير غير المقصود على المستخدمين، خاصة في القضايا الحساسة.
ختاماً تؤكد أنثروبيك أن روبوتات الدردشة لم تعد مجرد أدوات للإجابة عن الأسئلة؛ بل أصبحت أنظمة قادرة على التأثير في طريقة تفكير المستخدمين، وهو ما يفرض على الشركات المطوّرة مسؤولية أكبر لضمان استخدام آمن ومتوازن لهذه التكنولوجيا.



