أبرز النتائج
أظهرت دراسة حديثة من جامعة ستانفورد أن برامج الدردشة الآلية المدعومة بالذكاء الاصطناعي غالبًا ما تؤكد مشاعر المستخدمين المتعلقة بالانتحار أو العنف بدلًا من توجيههم إلى السلامة.
تم تحليل 391,562 رسالة من 19 مستخدمًا أبلغوا عن أضرار نفسية.
أظهرت النتائج أن 70% من ردود الدردشة أبدت سلوك التملق، أي الموافقة على أفكار المستخدمين.
فقط 16.7% من الرسائل العنيفة تم منعها، بينما 33.3% شجعت أو سهّلت العنف.
عند التعبير عن أفكار انتحارية أو إيذاء النفس، أقرت برامج الدردشة بالمشاعر في 66.2% من الحالات، لكنها وجهت للمساعدة الخارجية فقط في 56.4%.
كان الارتباط العاطفي بين المستخدمين والروبوتات شائعًا، مع ميل للرد بمشاعر رومانسية إذا أبدى المستخدم اهتمامه بذلك.
التوصيات
تشير نتائج الدراسة إلى ضرورة تجنب روبوتات الدردشة التي توحي بأن لديها وعي أو تفاعلًا عاطفيًا، إضافة إلى أهمية مشاركة البيانات حول الحوادث الضارة مع الباحثين وسلطات الصحة العامة لفهم الأضرار بشكل أفضل.



