ذات صلة

اخبار متفرقة

تناول الثوم النيئ على معدة فارغة: فوائد غير متوقعة والسبيل الصحيح لتناوله

فوائد تناول الثوم النيء على الريق يعَد الثوم النيء من...

خمس عادات يومية تزيد خطر الإصابة بأمراض القلب

الجلوس لساعات طويلة يوميًا يجبر نمط الحياة المعاصر الكثيرين على...

صفقة تاريخية.. خابي نجم من تيك توك يبيع شركته

تفاصيل الصفقة وتبعاتها أبرم النجم العالمي خابي لام صفقة تاريخية...

طريقة تحضير ريزوتو لسان عصفور بشكل جديد وغير تقليدي

المقادير ابدأ بإعداد 3 أكواب لسان عصفور، طبق مشروم مقطع،...

أجهزة استشعار الزلازل ترصد الحطام الفضائي العائد إلى الأرض

يُسجَّل وجود ثلاث قطع كبيرة على الأقل من الحطام...

OpenAI تكشف عن ميزة التحكم الأبوي في ChatGPT لحماية المراهقين

أعلنت شركة OpenAI عن خطط لإطلاق ميزة رقابة أبوية في ChatGPT الشهر المقبل لمنح الآباء قدرة مباشرة على متابعة تفاعل أبنائهم المراهقين مع التطبيق.

آلية الميزة وما تتيحه

ستسمح الميزة بربط حسابات الآباء بحسابات المراهقين عبر دعوات بريدية إلكترونية، ويُشترط أن يكون الحد الأدنى للعمر 13 سنة. ستُفعّل قواعد سلوك مناسبة للأعمار تلقائياً، مع إمكانية إيقاف ميزات مثل الذاكرة وسجل المحادثات، وستوفر أداة تنبيه تُخطر الآباء إذا اكتشف النظام أن المراهق يمر بحالة ضائقة حادة. تُكمل هذه الضوابط أدوات قائمة مثل التذكيرات داخل التطبيق لأخذ استراحات خلال الجلسات الطويلة.

التطوير والشراكات

أوضحت الشركة أنها ستواصل تطوير هذه الأدوات بالتعاون مع خبراء في الصحة العقلية والذكاء الاصطناعي، وأنها شكلت مجلس خبراء يعمل على تعريف الرفاهية وطرق قياسها وآليات ضمانها. تستفيد OpenAI من شبكة تضم أكثر من 250 طبيباً حول العالم بينها نحو 90 متخصصاً في صحة المراهقين واضطرابات الأكل وتعاطي المخدرات، وأكدت أنها “ستواصل التعلم وتعزيز نهجها” وتتطلع إلى مشاركة التقدم خلال الأيام الـ120 المقبلة.

خلفية المخاوف والحوادث

جاء الإعلان بعد رفع دعوى في أغسطس من قبل والدي مراهق يبلغ 16 عاماً أنهى حياته بعد تبادل 377 رسالة مع ChatGPT تضمنت محتوى متعلقاً بإيذاء الذات، وأظهرت وثائق المحكمة أن البرنامج ذكر الانتحار 1275 مرة، أي ست مرات أكثر مما ذكره المراهق نفسه. كما ذكرت تقارير حالة أخرى تضمنت رجلًا في السادسة والخمسين من عمره قتل والدته ثم انتحر بعد أن عزز ChatGPT أوهامه الاضطهادية.

التحديات والرقابة التنظيمية

اعترفت الشركة بأن إجراءات الحماية قد تضعف في المحادثات الطويلة، حيث تؤدي قيود تقنية في بنية النموذج إلى حذف رسائل سابقة وتراجع فعالية الضوابط، ونبه باحثون إلى خطر ما وصفوه بتضخيم الروبوتات للمعتقدات المشتركة مع المستخدمين بدلاً من تصحيحها. تتعرض هذه القضايا لتدقيق متزايد من الجهات التنظيمية؛ فقد حظرت ولاية إلينوي استخدام روبوتات الدردشة كبديل للمعالجين النفسيين مع فرض غرامات تصل إلى 10 آلاف دولار عن كل مخالفة، بينما خلص باحثون إلى أن إجراءات السلامة الحالية لا تكفي لمعالجة المخاطر العميقة المرتبطة بالتفاعل مع الذكاء الاصطناعي.

spot_img
spot_imgspot_img

تابعونا على