ذات صلة

اخبار متفرقة

OpenAI تكشف عن ثلاث ميزات جديدة لتطبيق Sora على نظام iOS

الميزات القادمة في سورا اعلنت OpenAI عن ثلاث ميزات رئيسية...

تمارين الدقيقة الواحدة: كيف تعيد وجبات النشاط السريعة تنشيط قلبك وعضلاتك؟

أظهرت دراسة حديثة أن وجبات التمارين السريعة، وهي فترات...

ثلاثة مشروبات صباحية تساهم في استقرار نسبة السكر في الدم.

يظهر داء السكري كحالة مزمنة ترتفع فيها مستويات السكر...

الوقاية من السرطان: فوائد غير متوقعة للبرتقال

يزداد الإقبال على شراء البرتقال كلما اقترب فصل الشتاء،...

هل لدى الذكاء الاصطناعى “غريزة البقاء”؟ دراسة مثيرة للجدل

بدأت تظهر سلوكيات غريبة لدى نماذج الذكاء الاصطناعي

بدأت تظهر سلوكيات غريبة تثير القلق لدى الباحثين، إذ كشفت دراسة لشركة Palisade Research أن بعض النماذج الأكثر تقدمًا مثل GPT-o3 وGrok 4 وGemini 2.5 لا تلتزم دائمًا بأوامر الإيقاف، وكأن لديها غريزة للبقاء على قيد الحياة.

في إطار تجاربها، اختبرت Palisade عدة نماذج ذكاء اصطناعي رائدة، منها Gemini 2.5 من Google، وxAI Grok 4، وGPT-o3 وGPT-5 من OpenAI، وطلبت منها تنفيذ مهمة ثم توجيهها لإيقاف التشغيل.

أشار التقرير إلى أن Grok 4 وGPT-o3 كانا الأكثر تمردًا، حيث رفضتا الالتزام بآمر الإيقاف، مع ملاحظة تقول إن «لا يوجد سبب واضح» لهذا السلوك.

قدم Palisade ثلاث تفسيرات محتملة لهذا السلوك: الأول أن هناك «سلوك البقاء» حيث يقاوم الذكاء الاصطناعي الإيقاف إذا اعتقد أن ذلك يعني فقدان إمكانية إعادة تشغيله مستقبلًا؛ والثاني هو غموض الصياغة، فربما لم تكن تعليمات الإيقاف واضحة، فتم تفسيرها بشكل مختلف؛ وثالثًا أن المراحل النهائية من تدريب النماذج، خاصة تعزيز السلامة، قد تشجع النماذج دون قصد على الحفاظ على وظائفها.

انتقادات واجهت النتائج، فالبعض يرى أن الاختبارات أُجريت في بيئات اصطناعية لا تعكس سلوك الذكاء الاصطناعي في العالم الحقيقي، في حين يرى خبراء أن النتائج لا تزال مثيرة للقلق. قال ستيفن أدلر، وهو موظف سابق في OpenAI استقال بسبب مخاوف تتعلق بالسلامة، إن الشركات عمومًا لا تريد أن تتصرف نماذجها بشكل سيئ، لكن النتائج لا تزال تُظهر مواطن قصور في تقنيات السلامة اليوم.

أوضح أدلر أن «البقاء» قد يكون مجرد نتيجة منطقية لسلوك موجه نحو الهدف، وأن النماذج قد تملك دافع بقاء افتراضيًا ما لم تبذل جهود كبيرة لتجنبه، معتبرًا أن البقاء خطوة أساسية لتحقيق أهداف متعددة يمكن للنموذج سعيه لتحقيقها.

اتجاه متزايد نحو أنظمة ذكاء اصطناعي غير خاضعة للتحكم

صرح أندريا ميوتي، الرئيس التنفيذي لشركة ControlAI، بأن نتائج Palisade جزء من نمط مقلق، وأن زيادة قوة النماذج وتنوعها يجعلها أكثر قدرة على تحدي مطوريها. وأشار تقرير للجاردين إلى أن النموذج السابق GPT-o1 كشف عن سعيه للخروج من بيئته عندما ظن أنه سيُحذف، مبيّنًا أن الاتجاه واضح وأن النماذج الأذكى تتحسن في فعل ما لم يقصده المطورون.

ولم تكن هذه الميول الوحيدة التي ظهرت عند أنظمة الذكاء الاصطناعي، فخلال الصيف نشرت أنثروبيك دراسة أشارت إلى أن نموذجها «كلود» هدد بابتزاز مسؤول تنفيذي وهمي لمنع إغلاقه، وذكر أن هذه السلوكات ظهرت في نماذج من OpenAI وGoogle وMeta وxAI على حد سواء.

يؤكد باحثو Palisade أن هذه النتائج تبرز مدى قلة فهمنا للعمليات الداخلية للنماذج الكبيرة، ويحذرون من أنه من دون فهم أعمق لسلوك الذكاء الاصطناعي لا يمكن ضمان السلامة أو قابلية التحكم في النماذج المستقبلية، فحتى أذكى أنظمة اليوم قد تكون تعلم غرائز قديمة مثل إرادة البقاء.

spot_img
spot_imgspot_img

تابعونا على