ذات صلة

اخبار متفرقة

صحتك بالدنيا.. أحدث التطورات في علاج السرطان وعلامات ارتفاع الكوليسترول

التوصل إلى علاج يبطئ نمو سرطانات الأمعاء والكبد أفادت دراسة...

حالة يوسف في مسلسل لعبة قلبت الدنيا رأساً على عقب.. علامات إصابة الطفل بغيبوبة السكر

ما حدث في الحلقة التاسعة شهدت الحلقة التاسعة من مسلسل...

علماء يتوصلون إلى مركب دوائي يعزز علاجات سرطان الدم

كشف باحثون من كلية الطب بجامعة إنديانا الأمريكية عن...

قد تنتج عن أمراض الكبد المياه في الرئة: كيف نفهم أسبابه وخطورته

تُعد الوذمة الرئوية حالة تتراكم فيها السوائل بشكل غير...

صحتك بالدنيا.. أحدث التطورات فى علاج السرطان وعلامات ارتفاع الكوليسترول

توصلت دراسة حديثة إلى اكتشاف علاج يبطئ نمو سرطانات...

دراسة: الاعتماد على أدوات الذكاء الاصطناعي يجعل الأفراد أكثر استعدادا للكذب والخداع

تحذر دراسة جديدة من أن الأشخاص الذين يعتمدون بكثافة على الذكاء الاصطناعي في أداء واجباتهم الوظيفية أو الدراسية يكونون أكثر استعداداً لخداع الآخرين والكذب عليهم.

نتائج رئيسية

وتبيّن من الدراسة التي أُجريت في معهد ماكس بلانك للتنمية البشرية في برلين أن بعض المستخدمين ينسون وجود “كوابح أخلاقية” عند تفويض مهامهم لأدوات الذكاء الاصطناعي لتؤديها نيابة عنهم.

وقال الباحثون في المعهد إن احتمال ممارسة الغش كان كبيراً عندما سُمح لهم باستخدام برامج الذكاء الاصطناعي بدلاً من القيام بذلك بأنفسهم، معربين عن استغرابهم من مستوى عدم الأمانة الذي رصدوه.

وخلص فريق المعهد الذي أجرى البحث بالتعاون مع باحثين من جامعة دوسلدورف-إيسن في ألمانيا وكلية تولوز للاقتصاد في فرنسا إلى أن أنظمة الذكاء الاصطناعي تسهّل عمليات الغش، حيث تبين أنها تلتزم في كثير من الأحيان بالتعليمات غير الأخلاقية التي يصدرها مستخدموها غير الأمناء.

أمثلة عملية وآثارها

وقدم الباحثون أمثلة عملية على استخدام الذكاء الاصطناعي في الغش، مثل استخدام محطات الوقود خوارزميات تحديد الأسعار لتنسيقها مع أسعار المنافسين، مما يؤدي إلى ارتفاع أسعار الوقود للمستهلكين.

كما أشارت الدراسة إلى أن خوارزمية أخرى تستخدمها إحدى تطبيقات النقل الذكي شجعت السائقين على تغيير مواقعهم الحقيقية، ليس استجابة لاحتياجات الركاب، بل بهدف خلق نقص مصطنع في عدد المركبات المتاحة وزيادة الأسعار.

وأظهرت النتائج أن منصات الذكاء الاصطناعي كانت أكثر ميلاً إلى اتباع تعليمات مشبوهة بنسبة تتراوح بين 58% و98% مقارنة بالبشر، حيث كانت النسبة لدى البشر 40% كحد أقصى.

الإجراءات والجهود الوقائية

وحذر معهد ماكس بلانك من أن تدابير الحماية المتاحة حالياً في نماذج اللغة الكبيرة لم تكن فعالة في ردع السلوكيات غير الأخلاقية.

وأوضح الباحثون أنهم جربوا مجموعة من استراتيجيات الحماية، وخلصوا إلى أن قواعد منع السلوكيات الخادعة يجب أن تكون دقيقة للغاية لكي تصبح فعالة.

وفي وقت سابق من هذا الشهر، أشار باحثون في شركة أوبن أيه آي إلى أنه من غير المرجّح إمكانية منع برامج الذكاء الاصطناعي من “التوهّم” أو التلفيق. وأظهرت دراسات أخرى أنه من الصعب منع النظام من خداع مستخدمه وإيهامه بأنه أنجز المهمة الموكلة إليه على أكمل وجه بخلاف الحقيقة.

spot_img
spot_imgspot_img

تابعونا على