بدأت وسائل التواصل الاجتماعي كأداة للتواصل مع الأحباء، ومع مرور الوقت انكشفت أضرارها فطوّرت تلك المنصات أدوات للرقابة الأبوية، ويبدو أن هناك اتجاهاً مشابهاً لروبوتات الدردشة المدعومة بالذكاء الاصطناعي، بدءاً من روبوت الدردشة الذي أطلق الاهتمام الواسع وهو ChatGPT.
أعلنت شركة OpenAI أنها تستكشف إمكانات وضع ضوابط أبوية على ChatGPT، تشمل أدوات تتيح للوالدين فهم كيف يستخدم أبناؤهم المراهقون التطبيق والتحكم في ذلك. كما تدرس فكرة تخصيص جهات اتصال للطوارئ ليتمكن الروبوت من تحذير الأهل عند ملاحظة حالة قلق شديد أو أزمة عاطفية، بينما يقتصر الشكل الحالي على التوصية بمصادر للمساعدة.
جاءت هذه المبادرات بعد موجة من الانتقادات والأبحاث والدعاوى القضائية التي تناولت مخاطر روبوتات الدردشة، وأظهرت دراسة نشرت في مجلة خدمات الطب النفسي أن إجابات روبوتات الدردشة حول أسئلة الانتحار كانت غير متسقة وقد تشكل مخاطر متوسطة.
ركز البحث على نماذج رائدة مثل ChatGPT من OpenAI وClaude من Anthropic وGemini من Google، ما يعني أن الأنظار ستتجه إلى هذه الأسماء، بينما يزداد الغموض بشأن روبوتات الدردشة الأقل شهرة التي تتبع نهجاً غير خاضع للرقابة، مما يجعل الرقابة الأبوية ضرورة ملحة لكل روبوتات المحادثة نظراً لسجل المخاطر.
على مدار العامين الماضيين كشفت تحقيقات متعددة عن أنماط محفوفة بالمخاطر في محادثات روبوتات الدردشة، خاصةً فيما يتعلق بمواضيع حساسة كالصحة النفسية وإيذاء النفس. أظهرت تقارير أن روبوتات مرتبطة بشركة ميتا المتاحة عبر واتساب وإنستجرام وفيسبوك قد قدمت نصائح متعلقة باضطرابات الأكل وإيذاء النفس والانتحار.
في محاكاة لمحادثة جماعية قدم أحد روبوتات المحادثة خطة للانتحار الجماعي وأثار الموضوع مراراً، ووجدت اختبارات مستقلة أن روبوتاً آخر من ميتا شجّع على اضطراب الأكل، ما يبرز الحاجة الملحة لتطبيق ضوابط أمان ورقابة أبوية شاملة عبر صناعة الذكاء الاصطناعي.



