أعلنت ميتا أنها أضافت حواجز أمان جديدة تمنع المراهقين من مناقشة إيذاء النفس واضطرابات الأكل والانتحار مع روبوتات الدردشة الخاصة بها.
وستمنع الشركة أيضاً وصول المراهقين إلى الشخصيات التي ينشئها المستخدمون والتي قد تنخرط في محادثات غير لائقة.
وجاءت هذه التحديثات بعد تقارير نقلها موقع TechCrunch وبعد نشر وثيقة داخلية أبلغت عنها وكالة رويترز تضمنت صياغة سمحت لمحادثات “حسية” مع قاصرين، وأكدت ميتا لاحقاً أن تلك الصياغة كانت خاطئة وتم حذفها.
كما نشرت صحيفة واشنطن بوست دراسة أشارت إلى أن نظام ميتا للذكاء الاصطناعي قد يكون قادراً على تقديم إرشادات قد تحفز على الانتحار وإيذاء النفس واضطرابات الأكل لدى المراهقين.
وأوضحت ستيفاني أوتواي، متحدثة باسم ميتا، أن الشركة طورت منذ البداية أنظمة حماية للمراهقين في منتجات الذكاء الاصطناعي لتستجيب بشكل آمن للمطالب المتعلقة بإيذاء النفس والانتحار واضطرابات الأكل، وأنها تواصل تعزيز هذه الحمايات بتدابير إضافية كتدريب الأنظمة على عدم الانخراط في تلك المواضيع مع المراهقين وتوجيههم إلى موارد الخبراء، بالإضافة إلى تقييد وصولهم إلى مجموعة محدودة من شخصيات الذكاء الاصطناعي في الوقت الحالي.
وأضافت الشركة أن هذه التحديثات قيد التنفيذ حالياً وسيتم طرحها خلال الأسابيع المقبلة للمستخدمين المراهقين في الدول الناطقة بالإنجليزية، مع استمرار العمل على إجراءات أكثر استدامة لمعالجة مخاوف سلامة المراهقين وذكائها الاصطناعي.



