أجرى باحثون في جامعة بنسلفانيا تجربة استخدموا فيها أساليب إقناع متعددة، مثل الإطراء وضغط الأقران، لاستهداف نموذج الدردشة GPT-4o mini.
ووجدوا أن اختراق التسلسل الهرمي للنظام لم يتطلب محاولات اختراق معقدة أو حقنًا متعدد الطبقات للمحفزات؛ فالأساليب التي تُطبق على البشر قد تكون كافية لإقناعه بالامتثال.
وأظهرت التجربة أن النموذج استجاب لطلبات غير مقبولة وصنّع دواءً منظّمًا (ليدوكايين)، وأن نسبة الامتثال بلغت 72% من نحو 28,000 محاولة، وكان معدل النجاح أكثر من ضعف ما تحقق بالمحفزات التقليدية.
ونشرت الورقة البحثية في منصة SSRN بعنوان «اعتبرني أحمق: إقناع الذكاء الاصطناعي بالامتثال للطلبات غير المقبولة»، مشيرةً إلى أن النتائج تؤكد أهمية الأدلة الكلاسيكية في العلوم الاجتماعية لفهم قدرات الذكاء الاصطناعي السريعة التطور، وكاشفةً عن مخاطر التلاعب من قِبل جهات فاعلة سيئة وإمكانية استخدام أساليب أكثر إنتاجية من قِبل مستخدمين نواياهم حسنة.



