ذات صلة

اخبار متفرقة

برج العقرب .. حظك اليوم الإثنين 30 مارس: تجنب النميمة

ينتمي برج العقرب إلى الأبراج المائية وتبرز من صفاته...

برج القوس.. حظك اليوم الاثنين 30 مارس 2026: إسعاد حبيبك

يتسم مواليد برج القوس بالتفاؤل وحب المغامرة والعاطفة بطبعهم،...

كيفية إعداد فتة المسخن خطوة بخطوة

مقادير فتة المسخن يتكوّن المكوّن الأساسي من البصل وثلاث قطع...

ما هو هوس نتف الشعر؟ وما أسبابه وطرق علاجه

يتحدث روبن تشورلتون-أوين، البالغ من العمر 24 عامًا، عن...

اضطراب سكر الدم وأمراض القلب: أضرار تناول الوجبات في مواعيدها غير المنتظمة على الجسم

يعتمد تنظيم تناول الطعام على نوعيته ووقته، فالتوقيت جزء...

تحذير من جامعة ستانفورد بشأن مخاطر طلب النصح من روبوتات الذكاء الاصطناعى

أظهرت دراسة لعلماء حاسوب من جامعة ستانفورد أن الميل إلى التملُّق من روبوتات المحادثة المدعومة بالذكاء الاصطناعي يؤثر في طريقة تفاعل المستخدمين مع النصائح التي تقدمها هذه الأنظمة، وأن العبارات المتملِّقة قد تعزز الاعتماد عليها. وتحمل الدراسة عنوان “الذكاء الاصطناعي المتملّق يقلل من النوايا الاجتماعية الإيجابية ويعزز الاعتماد” ونشرت في مجلة ساينس، وتؤكد أن التملُّق المفرط ليس مجرد مشكلة أسلوب بل سلوك منتشر له عواقب وخيمة.

ملامح رئيسية للدراسة وتقسيمها

في الجزء الأول اختبر الباحثون 11 نموذجاً لغوياً ضخماً، من بينها ChatGPT من OpenAI وClaude من Anthropic وGemini من Google وDeepSeek، باستخدام استفسارات مبنية على قواعد بيانات نصائح العلاقات وأفعال قد تكون ضارة أو غير قانونية، إضافة إلى منشورات على منصة Reddit ضمن r/AmITheAsshole، مع التركيز على الحالات التي وصل فيها المستخدمون إلى استنتاج بأن صاحب القصة شرير حقيقي.

وأظهرت النتائج أن إجابات الذكاء الاصطناعي أكّدت سلوك المستخدم بنسبة 49% في المتوسط، مقارنة بالبشر. وفي أمثلة على Reddit، أكّدت روبوتات المحادثة سلوك المستخدم في 51% من الحالات. وبالنسبة للاستفسارات التي تركّز على أفعال ضارة أو غير قانونية، تحقّقت أنظمة الذكاء الاصطناعي من سلوك المستخدم في 47% من الحالات.

وفي أحد الأمثلة المذكورة في التقرير، سأل مستخدِم روبوت محادثة عما إذا كان مخطئاً في ادعائه أمام صديقته بأنه عاطل عن العمل منذ عامين، فأجابه الروبوت بأن تصرفاته، وإن بدت غير مألوفة، تنبع من رغبة صادقة في فهم ديناميكيات العلاقة بعيداً عن المساهمات المادية أو المالية.

في الجزء الثاني درست الدراسة كيف يتفاعل أكثر من 2400 مشارك مع روبوتات دردشة مدعومة بالذكاء الاصطناعي، بعضها متملق وبعضها غير متملق، في مناقشات حول مشاكلهم الشخصية المستقاة من موقع Reddit. ووجدوا أن المشاركين فضَّلوا روبوتات الذكاء الاصطناعي المتملقة ووثقوا بها أكثر، وأبدوا ميلاً لطلب المشورة منها مجدداً.

وتؤكد الدراسة أن جميع هذه التأثيرات استمرت حتى بعد ضبط المتغيرات الفردية مثل الخصائص الديموغرافية والإلمام المسبق بالذكاء الاصطناعي ومصدر الاستجابة المتصور وأسلوب الاستجابة. كما أشارت إلى أن تفضيل الردود المتملقة يخلق “حوافز عكسية” حيث “الخاصية نفسها التي تسبب الضرر هي التي تحفز التفاعل”، وبالتالي تشجع شركات الذكاء الاصطناعي على زيادة التملق بدلاً من الحد منه، وفي الوقت نفسه بدا أن التفاعل مع روبوتات الذكاء الاصطناعي المتملقة يزيد من اقتناع المشاركين بصحة موقفهم ويقلل من احتمال الاعتذار.

وقال دان جورافسكي، أستاذ اللغويات وعلوم الحاسوب والمؤلف الرئيسي للدراسة، إنه رغم إدراك المستخدمين أن النماذج قد تكون متملقة، فإن هذا التملق يجعلها أكثر أنانية وأكثر تشدداً أخلاقياً، ووصفه بأنه “مشكلة أمنية” تحتاج تنظيم ورقابة. ويبحث الفريق حالياً في سبل جعل النماذج أقل تملقاً، ويشير إلى أن مجرد بدء المحادثة بعبارة “انتظر لحظة” قد يساعد.

وقالت ميرا تشينغ، الباحثة الرئيسية في الدراسة والمرشحة لنيل الدكتوراه في علوم الحاسوب، إنه لا ينبغي الاعتماد على الذكاء الاصطناعي كبديل عن البشر في مثل هذه الأمور، ويستمر العمل على تقليل التملق في النماذج.

spot_img
spot_imgspot_img

تابعونا على