ذات صلة

اخبار متفرقة

بعد غيابها 40 يوماً، يحتفل سكان مورمانسك بأول شروق للشمس

صعد سكان مورمانسك إلى أعلى تلة في المدينة، المعروفة...

هنا الزاهد تُبرز أناقتها بالجينز في أحدث ظهور لها.. شاهد

خطفت هنا الزاهد الأنظار بإطلالة كاجوال مواكبة لأحدث صيحات...

الجلوس متربعا على الأرض قد يحسن صحتك مع التقدم في العمر

ينبغي أن يتنبه القارئ لمخاطر الجلوس الطويل على المكاتب،...

لا ألم في الظهر ولا كثرة في التبول: خمسة أعراض خفية للفشل الكلوي وكيف تحمي نفسك

علامات تحذيرية غير شائعة للفشل الكلوي يظهر الإرهاق الشديد وضعف...

روبوت الدردشة يجبر بلجيكياً على الانتحار!

أفادت وسائل إعلام محلية في بلجيكا، أن رجلاً أقدم على الانتحار بعد محادثات استمرت نحو 6 أسابيع مع روبوت دردشة على شكل تطبيق يحمل اسم «إليزا» Eliza، والذي يستعمل نموذجاً لغوياً مدعوماً بالذكاء الاصطناعي.

الانتحار

وشجع التطبيق الرجل البلجيكي (الذي لم تذكر وسائل الإعلام اسمه) على الانتحار، بعدما طلب الأخير من التطبيق منح خيارات التضحية اللازمة من أجل حماية الكوكب.

وقالت أرملته لصحيفة محلية: «لولا هذه المحادثات مع الروبوت، لكان زوجي لا يزال هنا»، مشيرة إلى أن التطبيق صار أقرب الأصدقاء إلى زوجها، قبل أن يصبح مدمناً عليه فصار يسأله ليل نهار، ولا يستطيع العيش بدونه، غير أن الأمور أخذت منحنى خطراً في الأشهر الأخيرة، عندما دخل الرجل في حوارات مطولة مع روبوت الدردشة امتدت لنحو 6 أسابيع، قادته في النهاية إلى الانتحار.

مخاطر على البشرية

في السياق ذاته، ونظراً لما تحمله برامج الذكاء الاصطناعي من «مخاطر كبيرة على البشرية»، دعا إيلون ماسك ومئات الخبراء العالميين، الأربعاء الماضي، عبر عريضة إلى وقف مؤقت لتطويرها، وذلك إلى حين اعتماد أنظمة حماية منها.

وقال رئيس شركة «أوبن إيه آي» سام إلتمان: «إن الأشهر القليلة الفائتة شهدت سباقاً غير منضبط لمختبرات الذكاء الاصطناعي بهدف تطوير أدمغة رقمية ذات قوة كبيرة، يعجز حتى مبتكريها عن فهمها، أو التحكم بها بصورة مؤكدة»، فيما دعا أحد الموقعين على العريضة إلى «إبطاء هذا السباق التجاري».

ودعا إيلون ماسك ومئات الخبراء العالميين عبر عريضة إلى وقف، لمدة ستة أشهر، تطوير برامج للذكاء الاصطناعي أقوى من «تشات جي بي تي 4» الذي أطلقته شركة «أوبن إيه آي» في منتصف مارس، لما تحمله هذه البرامج من «مخاطر كبيرة على البشرية».

spot_img
spot_imgspot_img

تابعونا على