ذات صلة

اخبار متفرقة

حظك اليوم وتوقعات الأبراج الأربعاء 21 يناير على الصعيد المهني والعاطفي والصحي

برج الحوت.. حظك اليوم الأربعاء 21 يناير: مكانة جديدة يتميز...

طريقة تحضير كريم مرطب للبشرة فى المنزل.. فعال وآمن وموفر

مكونات كريم مرطب للبشرة ابدأ بخفق جل الصبار جيدًا حتى...

كيف تحمي جوجل مستخدميها من التطبيقات الخارجية؟ إجراءات أمان جديدة

تبدأ جوجل باختبار آلية تحقق مطورين قبل تثبيت التطبيقات...

إيلون ماسك يؤكد قدرة سيارات تسلا على القيادة الذاتية الكاملة بلا إشراف

أعلن ماسك أن السيارة المزودة بشريحة AI4 المعروفة باسم...

جيل z يخشى فقدان وظائفه بسبب الذكاء الاصطناعى.. استطلاع يكشف المخاوف

أظهر استطلاع عالمي أجرته شركة راندستاد أن أربعة من...

دراسة: الاعتماد على أدوات الذكاء الاصطناعي يجعل الأفراد أكثر استعدادا للكذب والخداع

تحذر دراسة جديدة من أن الأشخاص الذين يعتمدون بكثافة على الذكاء الاصطناعي في أداء واجباتهم الوظيفية أو الدراسية يكونون أكثر استعداداً لخداع الآخرين والكذب عليهم.

نتائج رئيسية

وتبيّن من الدراسة التي أُجريت في معهد ماكس بلانك للتنمية البشرية في برلين أن بعض المستخدمين ينسون وجود “كوابح أخلاقية” عند تفويض مهامهم لأدوات الذكاء الاصطناعي لتؤديها نيابة عنهم.

وقال الباحثون في المعهد إن احتمال ممارسة الغش كان كبيراً عندما سُمح لهم باستخدام برامج الذكاء الاصطناعي بدلاً من القيام بذلك بأنفسهم، معربين عن استغرابهم من مستوى عدم الأمانة الذي رصدوه.

وخلص فريق المعهد الذي أجرى البحث بالتعاون مع باحثين من جامعة دوسلدورف-إيسن في ألمانيا وكلية تولوز للاقتصاد في فرنسا إلى أن أنظمة الذكاء الاصطناعي تسهّل عمليات الغش، حيث تبين أنها تلتزم في كثير من الأحيان بالتعليمات غير الأخلاقية التي يصدرها مستخدموها غير الأمناء.

أمثلة عملية وآثارها

وقدم الباحثون أمثلة عملية على استخدام الذكاء الاصطناعي في الغش، مثل استخدام محطات الوقود خوارزميات تحديد الأسعار لتنسيقها مع أسعار المنافسين، مما يؤدي إلى ارتفاع أسعار الوقود للمستهلكين.

كما أشارت الدراسة إلى أن خوارزمية أخرى تستخدمها إحدى تطبيقات النقل الذكي شجعت السائقين على تغيير مواقعهم الحقيقية، ليس استجابة لاحتياجات الركاب، بل بهدف خلق نقص مصطنع في عدد المركبات المتاحة وزيادة الأسعار.

وأظهرت النتائج أن منصات الذكاء الاصطناعي كانت أكثر ميلاً إلى اتباع تعليمات مشبوهة بنسبة تتراوح بين 58% و98% مقارنة بالبشر، حيث كانت النسبة لدى البشر 40% كحد أقصى.

الإجراءات والجهود الوقائية

وحذر معهد ماكس بلانك من أن تدابير الحماية المتاحة حالياً في نماذج اللغة الكبيرة لم تكن فعالة في ردع السلوكيات غير الأخلاقية.

وأوضح الباحثون أنهم جربوا مجموعة من استراتيجيات الحماية، وخلصوا إلى أن قواعد منع السلوكيات الخادعة يجب أن تكون دقيقة للغاية لكي تصبح فعالة.

وفي وقت سابق من هذا الشهر، أشار باحثون في شركة أوبن أيه آي إلى أنه من غير المرجّح إمكانية منع برامج الذكاء الاصطناعي من “التوهّم” أو التلفيق. وأظهرت دراسات أخرى أنه من الصعب منع النظام من خداع مستخدمه وإيهامه بأنه أنجز المهمة الموكلة إليه على أكمل وجه بخلاف الحقيقة.

spot_img
spot_imgspot_img

تابعونا على