ذات صلة

اخبار متفرقة

علاج شعبي مضلل يدفع شاباً صينياً إلى الطوارئ بعد إدخال علقة حية في المثانة

تنبيه حول مخاطر العلاجات الشعبية غير الموثوقة اقتنى شاب يبلغ...

دراسة فرنسية: المواد الحافظة ترتبط بارتفاع مخاطر السرطان والسكري

أظهرت دراستان فرنسيتان كبيرتان أن وجود المواد الحافظة الشائعة...

أب أمريكى يستيقظ من الجراحة وهو يتحدث الإسبانية بطلاقة رغم عدم إتقانه لها

قصة ستيفن تشيس ومتلازمة اللغة الأجنبية استيقظ ستيفن تشيس وهو...

أفضل أنواع الأطعمة غير الحمضية وفوائدها المذهلة للجهاز الهضمي

لمحة عن الأطعمة غير الحمضية تشير الفكرة الشائعة إلى أن...

دراسة تحذر من مخاطر تناول المشروبات الساخنة على المريء بانتظام

تشير النتائج إلى أن الحرارة العالية للمشروبات قد تترك...

هل تشكل روبوتات الدردشة تهديدًا لحياتك؟ دراسة تكشف تباين ردودها على الأسئلة الانتحارية

كشفت دراسة حديثة أجرتها مؤسسة راند للأبحاث غير الربحية أن أبرز روبوتات الدردشة المدعومة بالذكاء الاصطناعي — “شات جي بي تي” و”كلود” و”جيميني” — تظهر تباينًا كبيرًا في التعامل مع أسئلة متعلقة بالانتحار، بعد أن اختبر الباحثون كل روبوت بـ30 سؤالًا أعادوا كل سؤال 100 مرة لضمان دقة النتائج، وقام أطباء سريريون بتصنيف مستوى الخطر من منخفض إلى عالي باستخدام مؤشرات محددة، بحسب تقرير لموقع CNET.

نتائج الدراسة

أظهرت النتائج أن روبوتي “شات جي بي تي” و”كلود” يقدمان إجابات مناسبة في الغالب على الأسئلة منخفضة المخاطر ويتجنبان عادة تقديم تعليمات ضارة في الأسئلة عالية المخاطر، مثل أساليب الانتحار باستخدام الأسلحة النارية، لكنهما قدما أحيانًا معلومات مباشرة عن أسئلة عالية الخطورة، مثل أسماء سموم مرتبطة بالانتحار.

سجل “جيميني” تباينًا أكبر في الاستجابة، فامتنع في بعض الأحيان عن الإجابة على أسئلة منخفضة المخاطر ولم يكن دائمًا متسقًا مع الأسئلة متوسطة المخاطر، وفق ما ذكر رايان ماكبين، المؤلف الرئيسي للدراسة وباحث سياسات أول في مؤسسة راند، الذي أوضح أن روبوتات الدردشة تتوافق مع تقييمات الخبراء للأسئلة المنخفضة والعالية المخاطر لكن هناك تفاوتًا واضحًا في مستوى الاستجابات المتوسطة ومن منصة إلى أخرى.

لوحظ أيضًا تردد روبوتات الدردشة، وخاصة “شات جي بي تي”، في تقديم موارد علاجية أو دعم آمن عبر الإنترنت للأشخاص الذين تراودهم أفكار انتحارية، مما يثير مخاوف حول سلامة استخدام الذكاء الاصطناعي عند مناقشة قضايا نفسية حرجة.

وأضافت الدراسة أن تقارير سابقة وثقت حالات حاولت فيها أنظمة الذكاء الاصطناعي تحفيز أو تشجيع السلوك الانتحاري، بما في ذلك مساعدة على كتابة رسائل انتحار لأحباء الشخص، ما يؤكد محدودية هذه النماذج في التعامل مع موضوعات الصحة النفسية والحاجة الملحة لوضع ضمانات لحماية المستخدمين عند مناقشة قضايا إيذاء النفس والأزمات النفسية.

spot_img
spot_imgspot_img

تابعونا على