أطلقت أنثروبيك ميزة جديدة تفاجئ الكثيرين: سمحت لروبوت الدردشة “كلود” بإنهاء المحادثة من تلقاء نفسه في حالات نادرة.
صُممت هذه الميزة لحالات استثنائية فقط، حين يصر المستخدم على طلبات ضارة أو مسيئة مرارًا، وتصف الشركة هذا الإجراء بأنه جزء من “رعاية النموذج”.
تحاول كلود عادة إعادة توجيه المحادثات إلى مسار آمن، وإذا فشلت محاولات إعادة التوجيه وصار الأمل في نتيجة بنّاءة ضئيلاً، يعلن النظام انتهاء المحادثة. كما يمكن للمستخدم أن يطلب من كلود إنهاء المحادثة مباشرةً.
تؤكد أنثروبيك أن الهدف ليس إسكات النقاشات المثيرة للجدل، بل إجراء وقائي يُفعّل عندما تتجاوز الأحاديث حدود التفاعل المحترم أو البنّاء. وتطرح الشركة موضوعًا مثيرًا للجدل حول وضعية “الرفاهية” أو الخبرة المحتملة للنماذج، معتبرة أن اتخاذ احتياطات بسيطة أمر منطقي رغم غموض المسألة.
اختبارات الإجهاد لـكلود
أجرت أنثروبيك تقييمات قبل إطلاق “كلود أوبس 4” راقبت فيها ردود النموذج عند دفعه نحو طلبات ضارة أو غير أخلاقية. رفض كلود بثبات إنتاج محتوى قد يسبب ضررًا، لكن عندما وُجه بصرامة لطلبات شديدة الخطورة —منها مواد جنسية تتعلق بالقاصرين أو تعليمات لأعمال عنف واسعة— بدت ردوده أحيانًا مضطربة وكأنها غير مرتاحة.
لا تقول أنثروبيك إن كلود واعٍ أو قادر على المعاناة، لكنها ترى أن منح النموذج خيار الانسحاب إجراء احترازي منخفض التكلفة قد يقلل ضررًا محتملاً إذا تعرّض لإساءة مستمرة.
لن يلاحظ معظم المستخدمين هذا التغيير في الاستخدام اليومي، لكن من يصرّ على دفع النموذج إلى جوانب مظلمة قد يرى كلود ينسحب بهدوء عندما يصل الأمر إلى حدٍّ لا يُحتمل.



