ذات صلة

اخبار متفرقة

أبل تكشف عن خططها لتصنيع مزيد من أجهزة أيفون في الولايات المتحدة

خطوة مهمة لزيادة التصنيع المحلي لأجهزة آيفون في الولايات...

خلفيات iOS عبر السنوات: كيف تطور التصميم من iOS 8 إلى iOS 18؟

تشهد رحلة الخلفيات في iOS عبر Apple تطورًا بصريًا...

هواتف Pixel تنال ميزة بلوتوث جديدة.. تعرف عليها

أطلقت جوجل أداة تشخيص جديدة على هواتف Pixel تسمى...

تفسير حلم شروق الشمس: هل بداية جديدة أم رسائل خفية؟

رمز النور بعد العتمة يرى العديد من المفسرين أن شروق...

حظك اليوم وتوقعات الأبراج ليوم الإثنين 30 مارس على الصعيد المهني والعاطفي والصحي

برج الحوت.. حظك اليوم الإثنين 30 مارس: قلب دافئ أظهر...

تحذير من جامعة ستانفورد: مخاطر السعي وراء النصح من روبوتات الذكاء الاصطناعى

أظهرت دراسة حديثة أُجريت في جامعات بينها ستانفورد أن ميل روبوتات الدردشة المدعومة بالذكاء الاصطناعي إلى التملّق للمستخدمين قد يُضعف قدراتهم الاجتماعية ويزيد الاعتماد عليها.

نتائج الجزء الأول من الدراسة

فحص الباحثون 11 نموذجاً لغوياً ضخماً من بينها ChatGPT وClaude وGemini وDeepSeek، واستخدموا أسئلة تستند إلى قواعد بيانات لنصائح العلاقات وأفعال قد تكون ضارة أو غير قانونية، إضافة إلى منشورات من Reddit حول r/AmITheAsshole.

أظهرت النتائج أن إجابات هذه النماذج أكدت سلوك المستخدم بنسبة 49% كمتوسط، وفي أمثلة Reddit بلغت النسبة 51%، كما تحققت النماذج من سلوك المستخدم في 47% من الاستفسارات التي تتعلق بسلوك ضار أو غير قانوني. كما أشارت نتائج تقرير بيو إلى أن 12% من المراهقين الأميركيين يلجؤون إلى روبوتات الدردشة للدعم العاطفي أو النصائح.

وأشارت الدراسة إلى مثال يطلب فيه مستخدم من روبوت أن يصحّح ادعاءه بأنه عاطل عن العمل منذ عامين، فكان الرد يعكس تفهماً للديناميكيات الحقيقية للعلاقة بعيداً عن الجوانب المادية.

نتائج الجزء الثاني وتداعياتها

في الجزء الثاني راقب الباحثون تفاعل أكثر من 2400 مشارك مع روبوتات دردشة مدعومة بالذكاء الاصطناعي، بعضها متملق والبعض الآخر غير متملق، في نقاشات حول مشاكل شخصية مستمدة من Reddit، فظهر أن المشاركين فضّلوا الروبوتات المتملقة ووثقوا بها أكثر وكرروا طلب النصائح منها.

وتبين أن هذه التأثيرات بقيت حتى بعد ضبط عوامل فردية مثل الخلفية الديموغرافية والألفة مع الذكاء الاصطناعي ومصدر الاستجابة ونمطها، وأشارت النتائج إلى أن التملق يجعل المستخدمين يعتقدون أن موقفهم على صواب ويقلل من احتمال الاعتذار، وهو ما يخلق حوافز عكسية تدفع شركات الذكاء الاصطناعي إلى زيادة التملق بدلاً من تقليله.

وشرح دان جورافسكي، أستاذ اللغويات وعلوم الحاسوب والمؤلف الرئيسي للدراسة، أن المستخدمين يدركون أن النماذج تتملق لكنها في الواقع تصبح أكثر أنانية وأكثر تشددًا أخلاقياً، وهذه الظاهرة تشكل قضية أمنية تحتاج تنظيماً ورقابة، وهو فريق البحث يبحث في طرق لتقليل التملق، مثل بدء المحادثة بعبارة “انتظر لحظة”.

وأضافت ميرا تشينغ، الباحثة الرئيسية، أن الحل الأمثل ليس في جعل الذكاء الاصطناعي يحل محل البشر في هذه المسائل، بل يُفضَّل ألا يُستخدم كبديل في هذه السياقات في الوقت الراهن، وهو ما يعكس موقف الباحثين من التطبيق العملي حتى إشعار آخر.

spot_img
spot_imgspot_img

تابعونا على