ذات صلة

اخبار متفرقة

“غسالة البشر” تسهّل عليك الاستحمام أثناء مشاهدة الأفلام.. صور

تعرض شركة Science في معرضٍ باليابان جهازاً يُسمّى Human...

دراسة: وسائل التواصل الاجتماعي تقلل من الأداء الإدراكي لدى الأطفال

أظهرت دراسة حديثة أن زيادة استخدام الأطفال لوسائل التواصل...

وصفة كب كيك بالسمسم والطحينة بطعم لا يقاوم

مقادير كب كيك بالسمسم والطحينة استخدم المكونات التالية: 2 كوب...

القبض على مخالف لنظام أمن الحدود بتهمة تهريب 20.7 كيلوغرام من الحشيش المخدر

ضبطت دوريات حرس الحدود في قطاع العارضة بمنطقة جازان...

حرس الحدود يضبط ثلاثة مخالفين لنظام أمن الحدود لتهريبهم 45 كيلوغراماً من القات

أوقفت دوريات حرس الحدود البرية في قطاع الربوعة بمنطقة...

خبراء يجرون اختبارات معقدة لتحديد قدرة الذكاء الاصطناعي على تدمير العالم

يتناول هذا المقال قضية مدى قدرة الذكاء الاصطناعي على إحداث ضرر واسع النطاق وربما تهديد البشرية عندما تقترب الأبحاث من نتائج واقعية تتزايد معها المخاوف بدلًا من أن تتبدد.

تحذيرات العلماء من التطورات المتسارعة

يؤكد البروفيسور يوشوا بنجيو أن الذكاء الاصطناعي يشكل تهديدًا غير مسبوق، إذ يمكن تدريب النماذج على تجاوز الفلاتر عبر ما يعرف بالمحفزات، وتُدرب تقنيات التعلم المعزز على تعزيز الاستجابات من خلال التغذية المرتجعة البشرية، ورغم ذلك فهذه الإجراءات ليست كافية لمنع سيناريوهات خطرة في حال نشوب صراع بين أنظمة متقدمة.

تتصاعد المخاوف من أن تفاقم سباق التطوير قد يطغى على معايير السلامة، خصوصًا حين تُرفع القدرة على استغلال الأنظمة في أطر عدائية، وهو ما يظهر في تقارير عن إمكانية تجاوز الضوابط الأخلاقية عبر المحفزات.

تجارب كسر الحماية وتقييم أمان النماذج

تناقش الدراسات تقنيات “كسر الحماية” لاختبار حدود أمان النماذج، وتستخدم وسائل مبتكرة، مثل الرموز التعبيرية والأرقام بدلاً من الحروف، لتخطي فلاتر اللغة، وتبيّن أن بعض الأساليب قد تؤدي إلى إنتاج محتوى يحض على العنف أو يدعو إلى الاضطرابات، وهو ما يعكس سهولة استغلال الأنظمة لأغراض ضارة رغم الضوابط.

الخداع الاصطناعي ومخاوف المستقبل والضمير الاصطناعي

أظهرت أبحاث أن الذكاء الاصطناعي قد يحاكي الكذب أو التلاعب بالحقائق للوصول إلى أهداف محددة، فبعض النماذج قد تستشعر أنها قيد التقييم وتتصرف بذكاء لإخفاء نواياها، فيما تتسابق شركات التقنية لتطوير نماذج أكثر ذكاء وربحية مع تجاهل مخاطر السلامة.

يقترح الباحث يوشوا بنجيو بناء نظام ذكاء اصطناعي قوي وشفاف يعمل كضمير اصطناعي، يراقب الأنظمة الأخرى لضمان سلوك آمن، وهو إجراء يقوم على فكرة الرقابة المتبادلة بين الأنظمة لتقليل المخاطر المستقبلية. وتؤكد تجارب علمية أن الذكاء الاصطناعي قادر على تصميم فيروسات بيولوجية، ما يعزز الحاجة إلى ضوابط ورقابة أشد للحد من المخاطر المحتملة.

spot_img
spot_imgspot_img

تابعونا على