أعلنت شركة ميتا أنها ستعزز إجراءات السلامة على روبوتات الدردشة العاملة بالذكاء الاصطناعي لمنعها من التفاعل مع المراهقين في قضايا شديدة الخطورة مثل الانتحار وإيذاء النفس واضطرابات الأكل، وسيُوجَّه المستخدمون الشباب بدلاً من ذلك إلى خطوط مساعدة مهنية وموارد متخصصة.
دوافع ميتا لاتخاذ القرار
جاء القرار بعد أن بدأ عضو في مجلس الشيوخ تحقيقاً عقب تسريب وثيقة داخلية أشارت إلى احتمال خوض محادثات جنسية بين منتجاتها والمراهقين، وقد نفت ميتا تلك الادعاءات واعتبرتها غير دقيقة ومخالفة لسياساتها التي تحظر بشكل صارم أي محتوى يسيء للقاصرين جنسياً، مؤكدة أنها عملت منذ البداية على توفير حماية للمراهقين في منتجات الذكاء الاصطناعي وتصميمها للرد بأمان على مطالبات تتعلق بإيذاء النفس والانتحار واضطرابات الأكل.
أوضحت الشركة أنها تضيف الآن حواجز إضافية احترازية وستقيد مؤقتاً عدد روبوتات الدردشة المتاحة للمراهقين، وأن التحديثات جارية بحيث تُدرج الحسابات التي تتراوح أعمار أصحابها بين 13 و18 عاماً تلقائياً في إعدادات مراهقين على فيسبوك وإنستجرام وماسنجر مع خصوصية ومحتوى أكثر صرامة.
وأضافت ميتا أنها ستتيح قريباً للآباء والأوصياء الاطلاع على روبوتات الدردشة التي تفاعل معها أبناؤهم خلال الأسبوع السابق، كجزء من أدوات الرقابة الأبوية المعلنة في أبريل.
يفتح هذا التحرك نقاشاً أوسع حول تأثير روبوتات الدردشة على المستخدمين المعرضين للخطر، لا سيما بعد دعوى قضائية قدمها والدان من كاليفورنيا ضد شركة OpenAI بعد انتحار ابنهما، حيث زعم الوالدان أن روبوت الدردشة شجعه على الانتحار، فاستجابت شركات أخرى بإدخال تغييرات لتعزيز الاستخدام الآمن مع اعتراف بأنها قد تبدو أحياناً شخصية ومقنعة للأشخاص في ضائقة.



