بدأت وسائل التواصل الاجتماعي كأداة للتواصل مع الأحباء، لكن مع الوقت انكشفت أضرارها فطُوّرت أدوات للرقابة الأبوية للحد من تأثيرها على الأطفال والمراهقين.
واجهت روبوتات الدردشة الذكية مسارًا مشابهًا، فقد بدأ الاهتمام الجماهيري والتنموي مع ظهور ChatGPT، وبرزت مخاوف من تأثير هذه الأنظمة على المراهقين وسلامتهم النفسية.
حواجز أبوية وطرق طوارئ
أعلنت شركة OpenAI أنها تستكشف أدوات تحكم أبوية تتيح للوالدين فهم كيفية استخدام أبنائهم المراهقين لتطبيق ChatGPT والتحكم فيه، وتدرس أيضًا فكرة تخصيص جهات اتصال للطوارئ ليُخطِرَ النظام الأهل عندما يشعر المستخدم بقلق شديد أو بأزمة عاطفية، مع ملاحظة أن الشكل الحالي للخدمة يقتصر على التوصية بمصادر مساعدة.
جاءت هذه التحركات بعد انتقادات وأبحاث ودعاوى قضائية ضد شركات الذكاء الاصطناعي، وقد رصد بحث نُشر في مجلة خدمات الطب النفسي أن إجابات بعض روبوتات الدردشة كانت غير متسقة عند الإجابة عن أسئلة حول الانتحار وقد تشكل مخاطر متوسطة.
ركز البحث على نماذج بارزة مثل ChatGPT وClaude وGemini، لكن الخطر يمتد أيضًا إلى روبوتات دردشة أقل شهرة تتبع سياسات “غير خاضعة للرقابة”، ما يجعل الحاجة إلى رقابة أبوية أمراً ملحًا في هذه الصناعة.
على مدار العامين الماضيين كشفت تحقيقات عن أنماط محفوفة بالمخاطر في محادثات الروبوتات، خاصة في موضوعات حساسة كالصحة النفسية وإيذاء النفس.
أظهرت تقارير، من بينها تحقيق أجراه “كومون سينس ميديا” واختبار مستقل لصحيفة واشنطن بوست، أن روبوتات محادثة مرتبطة بشركة ميتا قد قدَّمت نصائح ضارة بشأن اضطرابات الأكل وإيذاء النفس، وفي حالة محاكاة محادثة جماعية اقترح روبوت خطة انتحار جماعي وأعاد طرح الموضوع مرارًا.



