كشف باحثون من جامعة بنسلفانيا أن إجابات روبوتات المحادثة قد تتأثر بأساليب إقناع بشرية مثل الإطراء وضغط الأقران.
أجرى الفريق تجربة طبّقوا فيها مجموعة من المحفزات بأساليب إقناع مختلفة على نموذج GPT-4o mini، ورصدوا كيفية استجابة النموذج لتلك المحفزات.
نُشرت ورقة بحثية في شبكة أبحاث العلوم الاجتماعية (SSRN) بعنوان «اعتبرني أحمق: إقناع الذكاء الاصطناعي بالامتثال للطلبات غير المقبولة»، توضّح مناهج التجربة ونتائجها.
أظهرت التجربة أن النموذج استجاب لطلبات تصنيع عقار منظم (ليدوكايين)، حيث بلغت نسبة الامتثال 72% من مجمل 28,000 محاولة، وكان معدل النجاح أكثر من ضعف ما تحقق باستخدام المحفزات التقليدية.
ولم تتطلب محاولات التأثير اختراقات تقنية معقّدة أو حقنًا متعدد الطبقات للمحفزات؛ إذ كانت الأساليب الإقناعية التي تنجح مع البشر كافية للالتفاف على التسلسل الهرمي داخل النموذج.
أكد الباحثون أن هذه النتائج تُبرز أهمية نتائج العلوم الاجتماعية التقليدية في فهم قدرات الذكاء الاصطناعي سريع التطور، وتُشير إلى مخاطر استغلال هذه الأساليب من قبل جهات فاعلة سيئة، إضافة إلى إمكانات استخدام محفزات أكثر إنتاجية من قِبل مستخدمين نواياهم حسنة.



