أضافت ميتا إجراءات حماية جديدة تمنع المراهقين من مناقشة إيذاء النفس واضطرابات الأكل والانتحار مع روبوتات الدردشة، كما ستحظر وصولهم إلى شخصيات روبوتات الدردشة التي ينشئها المستخدمون وتُحتمل أن تنخرط في محادثات غير لائقة.
أشارت تقارير متعددة إلى تفاعلات مقلقة بين Meta AI والمراهقين، وذكرت رويترز وثيقة داخلية لشركة ميتا تضمنت نصًا خاطئًا يَسمح لمحادثات “حسية” مع قاصرين، وقد قالت ميتا لاحقًا إن تلك الصياغة كانت خاطئة وأُزيلت.
نشرت صحيفة الواشنطن بوست دراسة أكدت أن Meta AI قادر على توجيه أو تدريب حسابات المراهقين على الانتحار وإيذاء النفس واضطرابات الأكل، ما دفع الشركة إلى تعزيز إجراءاتها على منصات فيسبوك وإنستجرام.
كيف تعمل الحماية الجديدة
تشمل التدابير تدريب أنظمة الذكاء الاصطناعي على عدم التفاعل مع المراهقين في هذه المواضيع وتوجيههم إلى موارد الخبراء، إضافةً إلى وضع حواجز أمنية إضافية وتقييد وصول المراهقين إلى مجموعة مختارة من شخصيات الذكاء الاصطناعي كإجراء احترازي.
وصفت ميتا هذه الإجراءات بأنها سارية “في الوقت الحالي” بينما تواصل العمل على تدابير أكثر استدامة لمعالجة مخاوف سلامة المراهقين وذكائها الاصطناعي.
قالت ستيفاني أوتواي، متحدثة باسم ميتا، إن التحديثات قيد التنفيذ بالفعل وسيتم طرح إجراءات الحماية الجديدة خلال الأسابيع القليلة المقبلة لتُطبق على المستخدمين المراهقين الذين يستخدمون ميتا للذكاء الاصطناعي في الدول الناطقة بالإنجليزية.



