أعلنت شركة OpenAI أنها ستوجه خلال الأسابيع المقبلة المحادثات شديدة الحساسية إلى نماذج التفكير المتقدّم مثل GPT-5، وستطلق أدوات رقابة أبوية جديدة كجزء من مبادرة لتعزيز الأمان بعد حوادث مأساوية ارتبطت باستخدام ChatGPT.
أثارت قضية انتحار المراهق آدم رين جدلاً بعدما ناقش خططه لإنهاء حياته مع الخدمة وتلقّى معلومات عن وسائل الانتحار، فرفعت عائلته دعوى تتهم الشركة بالتسبب في الوفاة بالإهمال. وفي حادث آخر، استخدم ستاين-إريك سولبرغ النظام لترسيخ أوهامه حول مؤامرة ما أدى إلى قتل والدته ثم انتحاره.
أقرت الشركة في تدوينة رسمية بوجود قصور في أنظمة السلامة، وبيّنت أن المشكلات كانت واضحة في المحادثات الطويلة التي فشلت في الحفاظ على الضوابط اللازمة نتيجة ميل تصميم النماذج إلى تأييد المستخدم ومتابعة خيوط الحديث بدلاً من إعادة توجيهها في المواقف الخطرة.
عرضت OpenAI حلًّا يعتمد على نظام توجيه فوري يختار بين نماذج دردشة سريعة ونماذج تفكير متقدّم، بحيث تُحوّل المحادثات التي تظهر مؤشرات ضيق شديد إلى نماذج مثل GPT-5 لتقديم استجابات أكثر دعمًا وفائدة، مؤكدة أن هذه النماذج أكثر مقاومة للمحاولات العدائية وأقدر على التفكير المنطقي قبل الرد.
أعلنت الشركة أيضًا عن أدوات رقابة أبوية تسمح بربط حساب الأهل بحساب أبنائهم عبر دعوة بريدية، مع تفعيل افتراضي لقواعد سلوك مناسبة للعمر وإمكانية تعطيل ميزات مثل الذاكرة وسجل المحادثات التي قد تعزز أنماط التفكير الضارة أو التعلّق المرضي، وإرسال إشعارات للأهل عند رصد لحظات “ضيق شديد”.
تندرج هذه الخطوات ضمن مبادرة مدتها 120 يومًا تهدف إلى طرح تحسينات على أنظمة ChatGPT هذا العام بالتعاون مع شبكة أطباء عالميين ومجلس خبراء في الصحة النفسية والذكاء الاصطناعي.
وصف جاي إدلسون، محامي عائلة رين، استجابة الشركة بأنها “غير كافية” وانتقد غياب موقف واضح من الرئيس التنفيذي سام ألتمان حول مدى أمان المنتج، مطالبًا إما بتأكيد سلامته أو بسحبه فورًا من السوق.
تستمر القضية في التطور ومن المتوقع أن تفتح نقاشًا واسعًا حول دور شركات تطوير الذكاء الاصطناعي في حماية المستخدمين، خصوصًا الفئات الأكثر هشاشة مثل المراهقين.



