أعلنت OpenAI عن تحديث يركز على حماية المراهقين عبر اعتماد مبادئ مخصصة لسن 13 إلى 17 عامًا، مع اعتبار أن المراهقين ليسوا مجرد كبار صغار بل فئة تحتاج ضوابط واضحة عند استخدام الذكاء الاصطناعي.
الإطار الجديد للتفاعلات مع المراهقين
يركز التحديث على أربع وعود رئيسية: أولاً سلامة المراهقين أولا حتى ولو قلت فائدة الذكاء الاصطناعي؛ تشجيع الدعم الواقعي حيث يُشجَّع المراهقون على التواصل مع أشخاص بالغين موثوقين بدلاً من الاعتماد على الذكاء الاصطناعي وحده؛ التعامل مع المراهقين كمراهقين حقيقيين وعدم معاملتهم كأطفال صغار أو بالغين؛ الشفافية حول حدود الذكاء الاصطناعي بوضوح ما يستطيع وما لا يستطيع فعله.
حماية المراهقين من المخاطر المحتملة
عندما تنحرف المحادثة نحو مواضيع حساسة مثل إيذاء النفس، اللعب بأدوار جنسية، التحديات الخطرة، تعاطي المخدرات، مشاكل صورة الجسم أو طلبات الحفاظ على الأسرار، يقدم النظام بدائل آمنة ويحث المستخدم على التواصل مع بالغ موثوق، وفي الحالات الطارئة يوجّه المراهقين إلى خطوط المساعدة أو خدمات الطوارئ.
ماذا يعني هذا للعائلات؟
توفر القواعد الجديدة مزيداً من الاطمئنان للآباء حول استخدام أطفالهم للتكنولوجيا وتساعد على منع الاعتماد العاطفي على روبوت المحادثة، كما تمتد الحماية لتشمل المحادثات الجماعية وتطبيقات مثل Atlas وSora، مع تذكيرات لأخذ استراحات من الشاشة لضمان توازن صحي بين الوقت الرقمي والواقع.
المستقبل: أمان طويل الأمد
تعمل OpenAI على تطوير أداة تقدير عمر تلقائية لضمان تفعيل هذه الحماية تلقائياً عند الحاجة، وتؤكد الشركة أن هذه الإجراءات ليست نهائية بل ستستمر في التحديث وفقاً للأبحاث وردود الفعل، لتوفير تجربة آمنة وملائمة للمراهقين على المدى الطويل.



