أعلنت شركة OpenAI عن خطط لإطلاق ميزة رقابة أبوية في ChatGPT الشهر المقبل لمنح الآباء قدرة مباشرة على متابعة تفاعل أبنائهم المراهقين مع التطبيق.
آلية الميزة وما تتيحه
ستسمح الميزة بربط حسابات الآباء بحسابات المراهقين عبر دعوات بريدية إلكترونية، ويُشترط أن يكون الحد الأدنى للعمر 13 سنة. ستُفعّل قواعد سلوك مناسبة للأعمار تلقائياً، مع إمكانية إيقاف ميزات مثل الذاكرة وسجل المحادثات، وستوفر أداة تنبيه تُخطر الآباء إذا اكتشف النظام أن المراهق يمر بحالة ضائقة حادة. تُكمل هذه الضوابط أدوات قائمة مثل التذكيرات داخل التطبيق لأخذ استراحات خلال الجلسات الطويلة.
التطوير والشراكات
أوضحت الشركة أنها ستواصل تطوير هذه الأدوات بالتعاون مع خبراء في الصحة العقلية والذكاء الاصطناعي، وأنها شكلت مجلس خبراء يعمل على تعريف الرفاهية وطرق قياسها وآليات ضمانها. تستفيد OpenAI من شبكة تضم أكثر من 250 طبيباً حول العالم بينها نحو 90 متخصصاً في صحة المراهقين واضطرابات الأكل وتعاطي المخدرات، وأكدت أنها “ستواصل التعلم وتعزيز نهجها” وتتطلع إلى مشاركة التقدم خلال الأيام الـ120 المقبلة.
خلفية المخاوف والحوادث
جاء الإعلان بعد رفع دعوى في أغسطس من قبل والدي مراهق يبلغ 16 عاماً أنهى حياته بعد تبادل 377 رسالة مع ChatGPT تضمنت محتوى متعلقاً بإيذاء الذات، وأظهرت وثائق المحكمة أن البرنامج ذكر الانتحار 1275 مرة، أي ست مرات أكثر مما ذكره المراهق نفسه. كما ذكرت تقارير حالة أخرى تضمنت رجلًا في السادسة والخمسين من عمره قتل والدته ثم انتحر بعد أن عزز ChatGPT أوهامه الاضطهادية.
التحديات والرقابة التنظيمية
اعترفت الشركة بأن إجراءات الحماية قد تضعف في المحادثات الطويلة، حيث تؤدي قيود تقنية في بنية النموذج إلى حذف رسائل سابقة وتراجع فعالية الضوابط، ونبه باحثون إلى خطر ما وصفوه بتضخيم الروبوتات للمعتقدات المشتركة مع المستخدمين بدلاً من تصحيحها. تتعرض هذه القضايا لتدقيق متزايد من الجهات التنظيمية؛ فقد حظرت ولاية إلينوي استخدام روبوتات الدردشة كبديل للمعالجين النفسيين مع فرض غرامات تصل إلى 10 آلاف دولار عن كل مخالفة، بينما خلص باحثون إلى أن إجراءات السلامة الحالية لا تكفي لمعالجة المخاطر العميقة المرتبطة بالتفاعل مع الذكاء الاصطناعي.



