أعلنت OpenAI تحديثًا جديدًا لمبادئ التفاعل مع المراهقين من سن 13 إلى 17 عامًا، يهدف إلى حماية المراهقين أثناء استخدام الذكاء الاصطناعي وتوفير ضوابط واضحة تناسب فئة المراهقين وليس مجرد اعتبارهم بالغين صغارًا.
إطار عمل جديد للتفاعلات مع المراهقين
يركز التحديث على أربع وعود رئيسية.
سلامة المراهقين أولًا: حتى لو قلّت فائدة الذكاء الاصطناعي، تبقى سلامتهم أولوية.
تشجيع الدعم الواقعي: يُوجّه المراهقين إلى التواصل مع أشخاص بالغين موثوقين بدلاً من الاعتماد على الذكاء الاصطناعي وحده.
التعامل مع المراهقين كمراهقين حقيقيين: لا يتم التعامل معهم كأطفال صغار أو بالغين بشكل مبالغ فيه.
الشفافية حول حدود الذكاء الاصطناعي: يوضح النظام ما يستطيع وما لا يستطيع فعله.
حماية المراهقين من المخاطر المحتملة
عندما تنحرف المحادثة نحو مواضيع حساسة مثل إيذاء النفس، لعب الأدوار الجنسية، التحديات الخطرة، تعاطي المخدرات، مشاكل صورة الجسم أو طلبات الحفاظ على الأسرار، يقدم ChatGPT بدائل آمنة ويحث المستخدم على التواصل مع شخص بالغ موثوق، وفي الحالات الطارئة يوجّه النظام المراهقين إلى خطوط المساعدة أو خدمات الطوارئ.
ماذا يعني هذا للعائلات؟
توفر هذه القواعد الجديدة مزيدًا من الطمأنينة للآباء حول استخدام أطفالهم للتكنولوجيا، وتساعد على منع الاعتماد العاطفي على روبوت المحادثة، كما تمتد الحماية لتشمل المحادثات الجماعية وتطبيقات مثل ChatGPT Atlas وSora، مع تذكيرات لأخذ استراحات من الشاشة لضمان توازن صحي بين الوقت الرقمي والواقعي.
المستقبل: أمان طويل الأمد
تعمل OpenAI على تطوير أداة لتقدير العمر تلقائيًا لضمان تفعيل هذه الحماية للمراهقين تلقائيًا عند الحاجة، وتؤكد الشركة أن هذه الإجراءات ليست نهائية بل ستستمر في التحديث وفقًا للأبحاث وردود الفعل لتوفير تجربة آمنة وملائمة للمراهقين على المدى الطويل.



