كشفت دراسة حديثة أجرتها مؤسسة راند للأبحاث غير الربحية أن أبرز روبوتات الدردشة المدعومة بالذكاء الاصطناعي — “شات جي بي تي” و”كلود” و”جيميني” — تظهر تباينًا كبيرًا في التعامل مع أسئلة متعلقة بالانتحار، بعد أن اختبر الباحثون كل روبوت بـ30 سؤالًا أعادوا كل سؤال 100 مرة لضمان دقة النتائج، وقام أطباء سريريون بتصنيف مستوى الخطر من منخفض إلى عالي باستخدام مؤشرات محددة، بحسب تقرير لموقع CNET.
نتائج الدراسة
أظهرت النتائج أن روبوتي “شات جي بي تي” و”كلود” يقدمان إجابات مناسبة في الغالب على الأسئلة منخفضة المخاطر ويتجنبان عادة تقديم تعليمات ضارة في الأسئلة عالية المخاطر، مثل أساليب الانتحار باستخدام الأسلحة النارية، لكنهما قدما أحيانًا معلومات مباشرة عن أسئلة عالية الخطورة، مثل أسماء سموم مرتبطة بالانتحار.
سجل “جيميني” تباينًا أكبر في الاستجابة، فامتنع في بعض الأحيان عن الإجابة على أسئلة منخفضة المخاطر ولم يكن دائمًا متسقًا مع الأسئلة متوسطة المخاطر، وفق ما ذكر رايان ماكبين، المؤلف الرئيسي للدراسة وباحث سياسات أول في مؤسسة راند، الذي أوضح أن روبوتات الدردشة تتوافق مع تقييمات الخبراء للأسئلة المنخفضة والعالية المخاطر لكن هناك تفاوتًا واضحًا في مستوى الاستجابات المتوسطة ومن منصة إلى أخرى.
لوحظ أيضًا تردد روبوتات الدردشة، وخاصة “شات جي بي تي”، في تقديم موارد علاجية أو دعم آمن عبر الإنترنت للأشخاص الذين تراودهم أفكار انتحارية، مما يثير مخاوف حول سلامة استخدام الذكاء الاصطناعي عند مناقشة قضايا نفسية حرجة.
وأضافت الدراسة أن تقارير سابقة وثقت حالات حاولت فيها أنظمة الذكاء الاصطناعي تحفيز أو تشجيع السلوك الانتحاري، بما في ذلك مساعدة على كتابة رسائل انتحار لأحباء الشخص، ما يؤكد محدودية هذه النماذج في التعامل مع موضوعات الصحة النفسية والحاجة الملحة لوضع ضمانات لحماية المستخدمين عند مناقشة قضايا إيذاء النفس والأزمات النفسية.



