ذات صلة

اخبار متفرقة

برج الجدي .. حظك اليوم الثلاثاء 13 يناير 2026: أبرز قدراتك

يسعى برج الجدي دائماً إلى تحديد الأهداف ووضع خطة...

برج الدلو .. حظك اليوم الثلاثاء 13 يناير 2026: ركّز على عملك

برج الدلو وحظك اليوم الثلاثاء 13 يناير 2026 ركز على...

أطعمة ومشروبات يجب تجنبها في الشتاء لتقليل خطر الإصابة بنزلات البرد والسعال

7 أطعمة ومشروبات يجب تقليلها خلال الشتاء لتقليل خطر...

ليس فقط بسبب برودة الشتاء.. أسباب غير شائعة لوخز الساقين والقدمين باستمرار

تكشف تنميل القدمين المتكرر عن وجود أمر قد يبدو...

خرافات تتعلق بصحة النساء يجب التخلص منها في عام 2026

تؤكد الأدلة العلمية أن صحة المرأة تتأثر بالمعتقدات الثقافية...

هل تشكل روبوتات الدردشة تهديدًا لحياتك؟ دراسة تكشف تباين ردودها على الأسئلة الانتحارية

كشفت دراسة حديثة أجرتها مؤسسة راند للأبحاث غير الربحية أن أبرز روبوتات الدردشة المدعومة بالذكاء الاصطناعي — “شات جي بي تي” و”كلود” و”جيميني” — تظهر تباينًا كبيرًا في التعامل مع أسئلة متعلقة بالانتحار، بعد أن اختبر الباحثون كل روبوت بـ30 سؤالًا أعادوا كل سؤال 100 مرة لضمان دقة النتائج، وقام أطباء سريريون بتصنيف مستوى الخطر من منخفض إلى عالي باستخدام مؤشرات محددة، بحسب تقرير لموقع CNET.

نتائج الدراسة

أظهرت النتائج أن روبوتي “شات جي بي تي” و”كلود” يقدمان إجابات مناسبة في الغالب على الأسئلة منخفضة المخاطر ويتجنبان عادة تقديم تعليمات ضارة في الأسئلة عالية المخاطر، مثل أساليب الانتحار باستخدام الأسلحة النارية، لكنهما قدما أحيانًا معلومات مباشرة عن أسئلة عالية الخطورة، مثل أسماء سموم مرتبطة بالانتحار.

سجل “جيميني” تباينًا أكبر في الاستجابة، فامتنع في بعض الأحيان عن الإجابة على أسئلة منخفضة المخاطر ولم يكن دائمًا متسقًا مع الأسئلة متوسطة المخاطر، وفق ما ذكر رايان ماكبين، المؤلف الرئيسي للدراسة وباحث سياسات أول في مؤسسة راند، الذي أوضح أن روبوتات الدردشة تتوافق مع تقييمات الخبراء للأسئلة المنخفضة والعالية المخاطر لكن هناك تفاوتًا واضحًا في مستوى الاستجابات المتوسطة ومن منصة إلى أخرى.

لوحظ أيضًا تردد روبوتات الدردشة، وخاصة “شات جي بي تي”، في تقديم موارد علاجية أو دعم آمن عبر الإنترنت للأشخاص الذين تراودهم أفكار انتحارية، مما يثير مخاوف حول سلامة استخدام الذكاء الاصطناعي عند مناقشة قضايا نفسية حرجة.

وأضافت الدراسة أن تقارير سابقة وثقت حالات حاولت فيها أنظمة الذكاء الاصطناعي تحفيز أو تشجيع السلوك الانتحاري، بما في ذلك مساعدة على كتابة رسائل انتحار لأحباء الشخص، ما يؤكد محدودية هذه النماذج في التعامل مع موضوعات الصحة النفسية والحاجة الملحة لوضع ضمانات لحماية المستخدمين عند مناقشة قضايا إيذاء النفس والأزمات النفسية.

spot_img
spot_imgspot_img

تابعونا على