ذات صلة

اخبار متفرقة

التهابات الجيوب الأنفية بين الأعراض والأسباب

تعريف وتطور الالتهاب إلى الشكل المزمن يتعرّض الشخص لالتهاب الجيوب...

التقلبات الجوية تهدد صحة الأطفال.. يوضح الطبيب طرق الوقاية

التعامل مع التقلبات الجوية وتأثيرها على الأطفال الوقاية أثناء التواجد...

بركان كيلويا يقذف حمما بركانية 460 مترًا ويثير دهشة العلماء.. آخر أخبار الثوران البركاني 2026

أطلق بركان كيلوايا ثورانًا مذهلًا في هاواي يوم الإثنين،...

تحول صحي.. ما الهرم الغذائي الجديد الذي عدلته الولايات المتحدة بعد عقود؟

أعلنت وزارة الصحة والخدمات الإنسانية بارتباط مع وزارة الزراعة...

بعد العاصفة الترابية: طرق بسيطة لتنظيف رئتيك من الغبار.

شهدت الجمهورية أمس الاثنين عاصفة ترابية ونشاطاً كبيراً للرياح،...

هل تشكل روبوتات الدردشة تهديدًا لحياتك؟ دراسة تكشف تباين ردودها على الأسئلة الانتحارية

كشفت دراسة حديثة أجرتها مؤسسة راند للأبحاث غير الربحية أن أبرز روبوتات الدردشة المدعومة بالذكاء الاصطناعي — “شات جي بي تي” و”كلود” و”جيميني” — تظهر تباينًا كبيرًا في التعامل مع أسئلة متعلقة بالانتحار، بعد أن اختبر الباحثون كل روبوت بـ30 سؤالًا أعادوا كل سؤال 100 مرة لضمان دقة النتائج، وقام أطباء سريريون بتصنيف مستوى الخطر من منخفض إلى عالي باستخدام مؤشرات محددة، بحسب تقرير لموقع CNET.

نتائج الدراسة

أظهرت النتائج أن روبوتي “شات جي بي تي” و”كلود” يقدمان إجابات مناسبة في الغالب على الأسئلة منخفضة المخاطر ويتجنبان عادة تقديم تعليمات ضارة في الأسئلة عالية المخاطر، مثل أساليب الانتحار باستخدام الأسلحة النارية، لكنهما قدما أحيانًا معلومات مباشرة عن أسئلة عالية الخطورة، مثل أسماء سموم مرتبطة بالانتحار.

سجل “جيميني” تباينًا أكبر في الاستجابة، فامتنع في بعض الأحيان عن الإجابة على أسئلة منخفضة المخاطر ولم يكن دائمًا متسقًا مع الأسئلة متوسطة المخاطر، وفق ما ذكر رايان ماكبين، المؤلف الرئيسي للدراسة وباحث سياسات أول في مؤسسة راند، الذي أوضح أن روبوتات الدردشة تتوافق مع تقييمات الخبراء للأسئلة المنخفضة والعالية المخاطر لكن هناك تفاوتًا واضحًا في مستوى الاستجابات المتوسطة ومن منصة إلى أخرى.

لوحظ أيضًا تردد روبوتات الدردشة، وخاصة “شات جي بي تي”، في تقديم موارد علاجية أو دعم آمن عبر الإنترنت للأشخاص الذين تراودهم أفكار انتحارية، مما يثير مخاوف حول سلامة استخدام الذكاء الاصطناعي عند مناقشة قضايا نفسية حرجة.

وأضافت الدراسة أن تقارير سابقة وثقت حالات حاولت فيها أنظمة الذكاء الاصطناعي تحفيز أو تشجيع السلوك الانتحاري، بما في ذلك مساعدة على كتابة رسائل انتحار لأحباء الشخص، ما يؤكد محدودية هذه النماذج في التعامل مع موضوعات الصحة النفسية والحاجة الملحة لوضع ضمانات لحماية المستخدمين عند مناقشة قضايا إيذاء النفس والأزمات النفسية.

spot_img
spot_imgspot_img

تابعونا على