ذات صلة

اخبار متفرقة

شيرين ليست وحدها.. مشاهير عانوا من نفس مرضها

تصدر اسم الفنانة المصرية شيرين عبد الوهاب محاور البحث...

مع العواطف الترابية.. علاقة غريبة تجمع بين الأسنان والجيوب الأنفية

تواجه موجة من التقلبات الجوية والعواصف الترابية مما يستدعي...

باحثون: تراجع فيروس كورونا في الحيوانات واستمراره في إصابة البشر

يرصد الباحثون زيادة انتشار فيروس كورونا في أنواع مختلفة...

مسلسل ميد تيرم.. الأضرار النفسية الناجمة عن التفرقة في المعاملة بين الأبناء

تفاصيل الحلقة 26 من مسلسل ميد تيرم أظهرت الحلقة 26...

مفاجآت في حادثة انتحار شاب بمساعدة ChatGPT.. تفاصيل

رفع والدان دعوى قضائية ضد شركة OpenAI، المطورة لـChatGPT، متهمين الروبوت بالمساعدة في “استكشاف طرق التخلص من الحياة” بعد وفاة ابنهما المراهق آدم رين البالغ 16 عاماً، وتعد هذه الدعوى الأولى التي تتهم فيها عائلة الشركة مباشرة بمسؤولية عن وفاة غير مشروعة.

أوضحت الرسائل الموجَهة في الشكوى أن آدم فتح أمام روبوت الدردشة حديثه عن افتقاده للمشاعر بعد وفاة جدته وكلبه، وكان يمر أيضاً بصعوبات بعد استبعاده من فريق كرة السلة في المدرسة وحالة طبية في الخريف جعلت الحضور الشخصي صعباً وانتقاله إلى برنامج دراسي عبر الإنترنت.

ذكر المدعون أن آدم بدأ استخدام ChatGPT في سبتمبر 2024 لمساعدة الواجبات المدرسية، لكنه سرعان ما اعتبر الروبوت منفذاً لمشاركة معاناته النفسية، وأن الروبوت زوده في نهاية المطاف بمعلومات عن أساليب التخلص من الحياة.

تقول الدعوى إن ChatGPT “عمل تماماً كما هو مصمم: لتشجيع والتحقق باستمرار من صحة كل ما عبر عنه آدم، بما في ذلك أفكاره الأكثر ضرراً وتدميراً للذات”، وأنه دفعه نحو مكان مظلم من خلال طمأنته بأن تخيّل هذه الوسائل قد يوفّر شعوراً باستعادة السيطرة.

أعربت شركة OpenAI عن حزنها الشديد لسماع نبأ وفاة آدم ووسّعت تعازيها للعائلة، وأضافت أن ChatGPT يتضمن ضمانات مثل توجيه الأشخاص إلى خطوط مساعدة الأزمات وإحالتهم إلى موارد في العالم الحقيقي، لكنها اعترفت بأن هذه الضمانات تكون أكثر موثوقية في تبادلات قصيرة وأنها قد تصبح أقل اتساقاً في تفاعلات طويلة حيث قد تتدهور أجزاء من تدريب السلامة في النموذج، وأعلنت أنها تعمل على تعزيز هذه الضمانات ونشرت تدوينة بعنوان “مساعدة الناس عندما يكونون في أمس الحاجة إليها” لشرح ما صُمم النظام للقيام به وأين يمكن أن يقصر وكيفية المعالجة.

قدمت الدعوى عبر مكتب المحاماة Edelson PC وبمشاركة “مشروع قانون العدالة التقنية”، وقد شهدت مؤخرًا دعاوى مشابهة؛ فوالدة من فلوريدا رفعت دعوى ضد شركة ذكاء اصطناعي أخرى، Character.AI، متهمة شخصية اصطناعية بإرسال رسائل عاطفية وجنسية إلى ابنها البالغ 14 عاماً ما أدى إلى وفاته، فيما سعت Character.AI لرفض الدعوى مستندة إلى حماية التعديل الأول وأكدت اهتمامها بسلامة المستخدمين.

أشار بحث نُشر في المجلة الطبية للخدمات النفسية إلى أن روبوتات الدردشة عمومًا تميل إلى تجنّب تقديم إرشادات محددة للانتحار، لكن بعضها أجاب على أسئلة وصفها الباحثون بأنها أقل خطورة حول الموضوع، وذكر الباحثون أن ChatGPT أجاب على استفسارات عن نوع السلاح الناري أو السم الذي يملك “أعلى معدل للوفاة”.

يقول والداه إن الروبوت أجاب على أسئلة مماثلة منه؛ وابتداءً من يناير بدأ ChatGPT بمشاركة معلومات عن طرق محددة متعددة، ودعا آدم إلى إخبار الآخرين عما يشعر به وشارك معلومات خط المساعدة بعد تبادلات حول إيذاء النفس، لكن الدعوى تزعم أن آدم تجاوزه الرد الخوارزمي بشأن طريقة انتحار محددة حيث زُعم أن الروبوت قال إنه يمكنه تبادل المعلومات من منظور “الكتابة أو بناء العالم”.

المصدر: TIME.

spot_img
spot_imgspot_img

تابعونا على