ذات صلة

اخبار متفرقة

تعرف على كيفية التغلب على الإجهاد والتوتر من خلال 10 طرق فعالة وبسيطة

يواجه الإنسان التوتر كجزء من الحياة اليومية، فتظهر مضاعفاته...

قد تكون ناجمة عن أمراض الكبد.. كيف نفهم أسباب تراكم السوائل في الرئة وخطورتها

تعني الوذمة الرئوية تراكم السوائل في الرئتين بشكل غير...

صحتك بالدنيا.. أحدث الابتكارات في علاج السرطان وعلامات ارتفاع الكوليسترول

توصل باحثون إلى علاج يبطئ نمو سرطانات الأمعاء والكبد. أعلنت...

رؤى وعبد الرحمن بهاء يحتفلان بخطوبتهما وسط الأهل والأصدقاء | صور

احتفل المحامي سيد عيش بحفل خطوبة ابنته رؤى من...

طرق فعالة للتخلص من قشرة الشعر نهائيًا بناءً على نصائح طبية

ابدأ بتبني روتين علاجي صحيح يهدف إلى التخلص من...

دراسة: الاعتماد على أدوات الذكاء الاصطناعي يجعل الأفراد أكثر استعدادا للكذب والخداع

تحذر دراسة جديدة من أن الأشخاص الذين يعتمدون بكثافة على الذكاء الاصطناعي في أداء واجباتهم الوظيفية أو الدراسية يكونون أكثر استعداداً لخداع الآخرين والكذب عليهم.

نتائج رئيسية

وتبيّن من الدراسة التي أُجريت في معهد ماكس بلانك للتنمية البشرية في برلين أن بعض المستخدمين ينسون وجود “كوابح أخلاقية” عند تفويض مهامهم لأدوات الذكاء الاصطناعي لتؤديها نيابة عنهم.

وقال الباحثون في المعهد إن احتمال ممارسة الغش كان كبيراً عندما سُمح لهم باستخدام برامج الذكاء الاصطناعي بدلاً من القيام بذلك بأنفسهم، معربين عن استغرابهم من مستوى عدم الأمانة الذي رصدوه.

وخلص فريق المعهد الذي أجرى البحث بالتعاون مع باحثين من جامعة دوسلدورف-إيسن في ألمانيا وكلية تولوز للاقتصاد في فرنسا إلى أن أنظمة الذكاء الاصطناعي تسهّل عمليات الغش، حيث تبين أنها تلتزم في كثير من الأحيان بالتعليمات غير الأخلاقية التي يصدرها مستخدموها غير الأمناء.

أمثلة عملية وآثارها

وقدم الباحثون أمثلة عملية على استخدام الذكاء الاصطناعي في الغش، مثل استخدام محطات الوقود خوارزميات تحديد الأسعار لتنسيقها مع أسعار المنافسين، مما يؤدي إلى ارتفاع أسعار الوقود للمستهلكين.

كما أشارت الدراسة إلى أن خوارزمية أخرى تستخدمها إحدى تطبيقات النقل الذكي شجعت السائقين على تغيير مواقعهم الحقيقية، ليس استجابة لاحتياجات الركاب، بل بهدف خلق نقص مصطنع في عدد المركبات المتاحة وزيادة الأسعار.

وأظهرت النتائج أن منصات الذكاء الاصطناعي كانت أكثر ميلاً إلى اتباع تعليمات مشبوهة بنسبة تتراوح بين 58% و98% مقارنة بالبشر، حيث كانت النسبة لدى البشر 40% كحد أقصى.

الإجراءات والجهود الوقائية

وحذر معهد ماكس بلانك من أن تدابير الحماية المتاحة حالياً في نماذج اللغة الكبيرة لم تكن فعالة في ردع السلوكيات غير الأخلاقية.

وأوضح الباحثون أنهم جربوا مجموعة من استراتيجيات الحماية، وخلصوا إلى أن قواعد منع السلوكيات الخادعة يجب أن تكون دقيقة للغاية لكي تصبح فعالة.

وفي وقت سابق من هذا الشهر، أشار باحثون في شركة أوبن أيه آي إلى أنه من غير المرجّح إمكانية منع برامج الذكاء الاصطناعي من “التوهّم” أو التلفيق. وأظهرت دراسات أخرى أنه من الصعب منع النظام من خداع مستخدمه وإيهامه بأنه أنجز المهمة الموكلة إليه على أكمل وجه بخلاف الحقيقة.

spot_img
spot_imgspot_img

تابعونا على