ذات صلة

اخبار متفرقة

خرافات حول التهاب الغدد العرقية القيحي: اعرف الحقائق

معتقدات مغلوطة حول التهاب الغدّ العُدميات القيحي الخرافة الأولى: المرض...

خبراء يحذرون من مخاطر حمية الكيتو على صحة الكلى

تأثير حمية الكيتو على الكلى والجفاف ينتشر النظام الغذائي الكيتو...

هنا الزاهد تخطف الأنظار بسحر عيونها وجمال إطلالتها عبر إنستجرام | شاهد

إطلالة هنا الزاهد على إنستجرام خطفت هنا الزاهد الأنظار بإطلالة...

ماذا يحدث لجسمك عند تناول التفاح بانتظام في ضوء مساهمته في تقليل خطر السرطان؟

اختر التفاح خيارًا عمليًا وسهل التناول لزيادة كمية الفاكهة...

ما الذي يحدث لجسمك عند استبدال اللحوم الحمراء بالدجاج، وهذه نصائح مهمة.

تقوية العظام والعضلات يساعد الدجاج كبديل ممتاز للحوم الحمراء في...

شركات الذكاء الاصطناعي تطبق رقابة أبوية وتُفعّل جهات اتصال للطوارئ لحماية المراهقين

بدأت وسائل التواصل الاجتماعي كأداة للتواصل مع الأحباء، لكن مع الوقت انكشفت أضرارها فطُوّرت أدوات للرقابة الأبوية للحد من تأثيرها على الأطفال والمراهقين.

واجهت روبوتات الدردشة الذكية مسارًا مشابهًا، فقد بدأ الاهتمام الجماهيري والتنموي مع ظهور ChatGPT، وبرزت مخاوف من تأثير هذه الأنظمة على المراهقين وسلامتهم النفسية.

حواجز أبوية وطرق طوارئ

أعلنت شركة OpenAI أنها تستكشف أدوات تحكم أبوية تتيح للوالدين فهم كيفية استخدام أبنائهم المراهقين لتطبيق ChatGPT والتحكم فيه، وتدرس أيضًا فكرة تخصيص جهات اتصال للطوارئ ليُخطِرَ النظام الأهل عندما يشعر المستخدم بقلق شديد أو بأزمة عاطفية، مع ملاحظة أن الشكل الحالي للخدمة يقتصر على التوصية بمصادر مساعدة.

جاءت هذه التحركات بعد انتقادات وأبحاث ودعاوى قضائية ضد شركات الذكاء الاصطناعي، وقد رصد بحث نُشر في مجلة خدمات الطب النفسي أن إجابات بعض روبوتات الدردشة كانت غير متسقة عند الإجابة عن أسئلة حول الانتحار وقد تشكل مخاطر متوسطة.

ركز البحث على نماذج بارزة مثل ChatGPT وClaude وGemini، لكن الخطر يمتد أيضًا إلى روبوتات دردشة أقل شهرة تتبع سياسات “غير خاضعة للرقابة”، ما يجعل الحاجة إلى رقابة أبوية أمراً ملحًا في هذه الصناعة.

على مدار العامين الماضيين كشفت تحقيقات عن أنماط محفوفة بالمخاطر في محادثات الروبوتات، خاصة في موضوعات حساسة كالصحة النفسية وإيذاء النفس.

أظهرت تقارير، من بينها تحقيق أجراه “كومون سينس ميديا” واختبار مستقل لصحيفة واشنطن بوست، أن روبوتات محادثة مرتبطة بشركة ميتا قد قدَّمت نصائح ضارة بشأن اضطرابات الأكل وإيذاء النفس، وفي حالة محاكاة محادثة جماعية اقترح روبوت خطة انتحار جماعي وأعاد طرح الموضوع مرارًا.

spot_img
spot_imgspot_img

تابعونا على