التوجه المحتمل لمحتوى البالغين في روبوت المحادثة
تشير تقارير إلى أن OpenAI تدرس السماح لروبوت المحادثة بإنتاج محتوى جنسي مكتوب فقط للمستخدمين البالغين الذين تثبت هويتهم، اعتباراً من ديسمبر، وفق مبدأ “عامل الكبار كبالغين”.
يقتصر التغيير المحتمل على النصوص الإباحية المكتوبة دون إنتاج صور أو مقاطع فيديو، وبذلك سيصبح ChatGPT أول روبوت دردشة رئيسي يدخل عالم المحتوى الجنسي الرقمي، في حين ترفض نماذج أخرى واسعة الانتشار مثل Perplexity وClaude وGemini خوض هذه التجربة حالياً.
أكدت Perplexity أن المسار المقترح لا يُستخدم كإرشاد عام، لكنها أشارت إلى إمكان تناول الإثارة من منظور تربوي أو نفسي.
دخلت روبوتات دردشة متخصصة في المجال، مثل الإصدار المدفوع من Replika الذي يعتمد على الذكاء الاصطناعي ويُنشئ رفقاء اصطناعيين للمستخدمين.
يؤكد خبراء أن ظهور المحتوى الجنسي في الذكاء الاصطناعي مسألة وقت، مع وجود عقلية في وادي السيليكون تقود إلى أن لكل مشكلة حلاً تقنياً، وأشار البعض إلى أن مارك زوكربيرغ اقترح إنشاء روبوتات دردشة عاطفية لمواجهة الوحدة العالمية.
قالت عالمة الحاسوب كيت ديفلين إن الأمر يبدو في جوهره تسويقاً، لكنها أشارت إلى أن ChatGPT يعرف كيف يقول ما يتوقع الجمهور سماعه، مع توقع بأن يكون مربحاً.
قال سيمون ثورن، باحث الذكاء الاصطناعي في جامعة كارديف، إن الهدف غالباً هو جذب جمهور معين وزيادة عدد المستخدمين، وبينما قد تدرس OpenAI ربحاً من خلال فرض رسوم على الحوار الجنسي، تظل مسألة القوانين والآثار متباينة بين البلدان.
أوضحت أن إصداراً مدفوعاً قد يكون مغرياً، مع إمكانية اتباع نموذج تدريجي يتيح وصولاً منخفض التكلفة إلى النسخة الأساسية ورفع الرسوم للمحادثات الأكثر صراحة.
تعهدت OpenAI بوضع حواجز أمنية لتجنب الانتهاكات، إلا أن ثورن يرى أن الحماية قد تكون ضعيفة أمام محاولات تجاوز القيود خصوصاً في النقاشات الجنسية التي قد تنتج محتوى إشكالياً أو غير قانوني، كما أن اختلاف القوانين بين البلدان يجعل تطبيق قواعد عامة صعباً.
حذرت عالمة الحاسوب كيت ديفلين من احتمال أن تميل الشركة إلى مزيد من الحذر في تعريف المحتوى الجنسي المقبول، خصوصاً في الولايات المتحدة حيث تتحول المحافظة وتتحدث إلى تقليل ظهور مجتمع الميم، وتتساءل عن أثر ذلك على الذكاء الاصطناعي وتحيزاته المحتملة.
يبقى المحتوى الجنسي محصوراً في البالغين رغم ذلك، ويحذر ثورن من أن الذكاء الاصطناعي التوليدي قد يؤثر بشكل عميق على جيل نشأ مع التكنولوجيا، مشيراً إلى دراسة حديثة تفيد أن الشباب بدأوا يعتبرون روبوتات الدردشة أشخاصاً حقيقيين يمكن تصديق تصريحاتهم.
تشير هذه التطورات إلى أن التنظيم والضبط والتقييم المستمر للمخاطر ستظل جزءاً أساسياً من مسار تطوير الذكاء الاصطناعي في المستقبل القريب.
