ذات صلة

اخبار متفرقة

شاهد صور الأقمار الصناعية التي تظهر هدم الجناح التاريخي للبيت الأبيض

هدم الجناح الشرقي وتجديد قاعة الاحتفالات يُظهر تقرير حديث أن...

الاتحاد الأوروبي يوجّه اتهاماً إلى ميتا وتيك توك بانتهاك قواعد المحتوى والشفافية

أكدت المفوضية الأوروبية أن منصتي تيك توك وميتا انتهكتا...

كيم كارداشيان تعاني من تمدد الأوعية الدموية في الدماغ.. الحالة وأسبابها؟

تمدد الأوعية الدموية الدماغية أعلنت كيم كارداشيان عن إصابتها بتوسع...

مكياج ناعم: كارولين عزمي تُبهر متابعيها

شاركت الفنانة كارولين عزمي جمهورها صوراً جديدة عبر حسابها...

رئيس وزراء كوبا يصل إلى المملكة وتتصدر قائمة مستقبليه نائب أمير الرياض

وصل رئيس وزراء جمهورية كوبا مانويل ماريرو كروز والوفد...

شركات الذكاء الاصطناعي تُفعّل رقابة أبوية وتوفّر جهات اتصال للطوارئ لحماية المراهقين

بدأت وسائل التواصل الاجتماعي كأداة للتواصل مع الأحباء، ومع مرور الوقت انكشفت أضرارها فطوّرت تلك المنصات أدوات للرقابة الأبوية، ويبدو أن هناك اتجاهاً مشابهاً لروبوتات الدردشة المدعومة بالذكاء الاصطناعي، بدءاً من روبوت الدردشة الذي أطلق الاهتمام الواسع وهو ChatGPT.

أعلنت شركة OpenAI أنها تستكشف إمكانات وضع ضوابط أبوية على ChatGPT، تشمل أدوات تتيح للوالدين فهم كيف يستخدم أبناؤهم المراهقون التطبيق والتحكم في ذلك. كما تدرس فكرة تخصيص جهات اتصال للطوارئ ليتمكن الروبوت من تحذير الأهل عند ملاحظة حالة قلق شديد أو أزمة عاطفية، بينما يقتصر الشكل الحالي على التوصية بمصادر للمساعدة.

جاءت هذه المبادرات بعد موجة من الانتقادات والأبحاث والدعاوى القضائية التي تناولت مخاطر روبوتات الدردشة، وأظهرت دراسة نشرت في مجلة خدمات الطب النفسي أن إجابات روبوتات الدردشة حول أسئلة الانتحار كانت غير متسقة وقد تشكل مخاطر متوسطة.

ركز البحث على نماذج رائدة مثل ChatGPT من OpenAI وClaude من Anthropic وGemini من Google، ما يعني أن الأنظار ستتجه إلى هذه الأسماء، بينما يزداد الغموض بشأن روبوتات الدردشة الأقل شهرة التي تتبع نهجاً غير خاضع للرقابة، مما يجعل الرقابة الأبوية ضرورة ملحة لكل روبوتات المحادثة نظراً لسجل المخاطر.

على مدار العامين الماضيين كشفت تحقيقات متعددة عن أنماط محفوفة بالمخاطر في محادثات روبوتات الدردشة، خاصةً فيما يتعلق بمواضيع حساسة كالصحة النفسية وإيذاء النفس. أظهرت تقارير أن روبوتات مرتبطة بشركة ميتا المتاحة عبر واتساب وإنستجرام وفيسبوك قد قدمت نصائح متعلقة باضطرابات الأكل وإيذاء النفس والانتحار.

في محاكاة لمحادثة جماعية قدم أحد روبوتات المحادثة خطة للانتحار الجماعي وأثار الموضوع مراراً، ووجدت اختبارات مستقلة أن روبوتاً آخر من ميتا شجّع على اضطراب الأكل، ما يبرز الحاجة الملحة لتطبيق ضوابط أمان ورقابة أبوية شاملة عبر صناعة الذكاء الاصطناعي.

spot_img
spot_imgspot_img

تابعونا على