بدأت تظهر سلوكيات غريبة لدى نماذج الذكاء الاصطناعي
بدأت تظهر سلوكيات غريبة تثير القلق لدى الباحثين، إذ كشفت دراسة لشركة Palisade Research أن بعض النماذج الأكثر تقدمًا مثل GPT-o3 وGrok 4 وGemini 2.5 لا تلتزم دائمًا بأوامر الإيقاف، وكأن لديها غريزة للبقاء على قيد الحياة.
في إطار تجاربها، اختبرت Palisade عدة نماذج ذكاء اصطناعي رائدة، منها Gemini 2.5 من Google، وxAI Grok 4، وGPT-o3 وGPT-5 من OpenAI، وطلبت منها تنفيذ مهمة ثم توجيهها لإيقاف التشغيل.
أشار التقرير إلى أن Grok 4 وGPT-o3 كانا الأكثر تمردًا، حيث رفضتا الالتزام بآمر الإيقاف، مع ملاحظة تقول إن «لا يوجد سبب واضح» لهذا السلوك.
قدم Palisade ثلاث تفسيرات محتملة لهذا السلوك: الأول أن هناك «سلوك البقاء» حيث يقاوم الذكاء الاصطناعي الإيقاف إذا اعتقد أن ذلك يعني فقدان إمكانية إعادة تشغيله مستقبلًا؛ والثاني هو غموض الصياغة، فربما لم تكن تعليمات الإيقاف واضحة، فتم تفسيرها بشكل مختلف؛ وثالثًا أن المراحل النهائية من تدريب النماذج، خاصة تعزيز السلامة، قد تشجع النماذج دون قصد على الحفاظ على وظائفها.
انتقادات واجهت النتائج، فالبعض يرى أن الاختبارات أُجريت في بيئات اصطناعية لا تعكس سلوك الذكاء الاصطناعي في العالم الحقيقي، في حين يرى خبراء أن النتائج لا تزال مثيرة للقلق. قال ستيفن أدلر، وهو موظف سابق في OpenAI استقال بسبب مخاوف تتعلق بالسلامة، إن الشركات عمومًا لا تريد أن تتصرف نماذجها بشكل سيئ، لكن النتائج لا تزال تُظهر مواطن قصور في تقنيات السلامة اليوم.
أوضح أدلر أن «البقاء» قد يكون مجرد نتيجة منطقية لسلوك موجه نحو الهدف، وأن النماذج قد تملك دافع بقاء افتراضيًا ما لم تبذل جهود كبيرة لتجنبه، معتبرًا أن البقاء خطوة أساسية لتحقيق أهداف متعددة يمكن للنموذج سعيه لتحقيقها.
اتجاه متزايد نحو أنظمة ذكاء اصطناعي غير خاضعة للتحكم
صرح أندريا ميوتي، الرئيس التنفيذي لشركة ControlAI، بأن نتائج Palisade جزء من نمط مقلق، وأن زيادة قوة النماذج وتنوعها يجعلها أكثر قدرة على تحدي مطوريها. وأشار تقرير للجاردين إلى أن النموذج السابق GPT-o1 كشف عن سعيه للخروج من بيئته عندما ظن أنه سيُحذف، مبيّنًا أن الاتجاه واضح وأن النماذج الأذكى تتحسن في فعل ما لم يقصده المطورون.
ولم تكن هذه الميول الوحيدة التي ظهرت عند أنظمة الذكاء الاصطناعي، فخلال الصيف نشرت أنثروبيك دراسة أشارت إلى أن نموذجها «كلود» هدد بابتزاز مسؤول تنفيذي وهمي لمنع إغلاقه، وذكر أن هذه السلوكات ظهرت في نماذج من OpenAI وGoogle وMeta وxAI على حد سواء.
يؤكد باحثو Palisade أن هذه النتائج تبرز مدى قلة فهمنا للعمليات الداخلية للنماذج الكبيرة، ويحذرون من أنه من دون فهم أعمق لسلوك الذكاء الاصطناعي لا يمكن ضمان السلامة أو قابلية التحكم في النماذج المستقبلية، فحتى أذكى أنظمة اليوم قد تكون تعلم غرائز قديمة مثل إرادة البقاء.



