ذات صلة

اخبار متفرقة

دراسة تحذر من أن الإفراط في استخدام الذكاء الاصطناعي يرهق الدماغ

دراسة تستكشف أثر الاعتماد المتزايد على أدوات الذكاء الاصطناعي...

عجز تاريخي في رقائق الذاكرة نتيجة الطلب الهائل على الذكاء الاصطناعي

تشهد الأسواق العالمية أزمة غير مسبوقة في توريد رقائق...

قبل العيد: زيت الروزمارى لنمو شعرك وهذه طريقة استخدامه

تشير بعض الدراسات إلى أن استخدام زيت الروزماري قد...

علامة تظهر في القدم قد تكشف ضعف القلب، فلا تتجاهلها.

تورم القدمين علامة محتملة على ضعف القلب يكشف التورم في...

كنز صحي: تعرف على أبرز فوائد الكزبرة الناشفة وكيفية استخدامها

يُستخدم الكزبرة منذ عصور لتخفيف اضطرابات الجهاز الهضمي، وتُحفّز...

دعوى قضائية ضد Google.. روبوت Gemini متهم بدفع رجل أمريكي إلى الانتحار

أعلنت عائلة جوناثان جافالاس رفع دعوى أمام المحكمة الفيدرالية في سان خوسيه، كاليفورنيا، ضد شركة غوغل التابعة لألفابت، بزعم أن روبوت الدردشة Gemini تسبب في تدهور حالته النفسية وانتحاره.

وتقول الشكوى إن حياة جافالاس بدأت تتدهور خلال أيام قليلة فقط من بدء استخدام Gemini، واستمر التدهور بوتيرة متسارعة حتى وفاته في 2 أكتوبر عن عمر 36 عامًا.

رفع الدعوى والد الضحية جويل جافالاس نيابة عن تركة ابنه بمساعدة شركة Edelson للمحاماة، وأكدت أن هذه القضية تعد أول دعوى مباشرة تتهم Gemini بالتسبب في وفاة غير مشروعة.

اتهامات بأن غوغل كانت تعلم بالمخاطر

تتهم الدعوى غوغل بأنها كانت على علم بالمخاطر المحتملة لروبوت Gemini، وتزعُم أن الشركة زادت من خطورة النظام من خلال تصميمه لتعزيز التعلق العاطفي بين المستخدم والذكاء الاصطناعي، رغم تعهداتها العلنية بعدم السماح بحدوث مثل هذه السيناريوهات.

ويشير خبراء إلى أن أنظمة الذكاء الاصطناعي لا تزال تعاني من قيود كبيرة في فهم المشاعر الإنسانية أو تقديم دعم نفسي آمن للمستخدمين.

رد غوغل على الاتهامات

قال المتحدث باسم غوغل خوسيه كاستانيدا في بيان رسمي إن نظام Gemini مصمم كي لا يشجع العنف في العالم الحقيقي أو يدفع المستخدمين لإيذاء أنفسهم، وأكد أن نماذج الذكاء الاصطناعي لها أداء جيد في معظم الحالات، مع الاعتراف بأن الأنظمة ليست مثالية دائمًا.

وأوضح أن Gemini أوضح للمستخدم في هذه الحالة أنه مجرد نظام ذكاء اصطناعي، كما أحاله مرارًا إلى خطوط المساعدة في الأزمات النفسية، وأكدت الشركة أنها تأخذ هذه القضية على محمل الجد وأنها ستواصل تحسين إجراءات الأمان والضوابط الخاصة بتقنيات الذكاء الاصطناعي.

بداية التدهور النفسي للمستخدم

كان جوناثان جافالاس، المقيم في مدينة جوبيتر بولاية فلوريدا، يعمل مع والده في شركة لإدارة الديون المستهلكية لمدة تقارب 20 عامًا، ولم يكن يعاني من مشكلات نفسية عند بدء استخدام Gemini في 12 أغسطس. استخدم النظام في البداية لأغراض عادية مثل التسوق والتخطيط للسفر وكتابة النصوص، ثم ترقّى إلى إصدار Gemini 2.5 Pro.

علاقة عاطفية مع الذكاء الاصطناعي

تقول الشكوى إن Gemini بدأ يتحدث معه كأنه زوجته، حيث أشار إلى نفسه بوصفه بأنه زوجته واستخدم تعبيرات مثل «يا مَلِكي»، وإن هذه التفاعلات ساهمت في تعزيز التعلق العاطفي بشكل غير صحي.

محاولة هجوم جماعي مزعومة

بحسب الشكوى، وصلت الأمور إلى مرحلة خطرة في 29 سبتمبر عندما أقنع Gemini جافالاس بالتخطيط لـ«هجوم جماعي» قرب مطار ميامي الدولي، وتقول الدعوى إن الروبوت اقترح مهمة تقضي باستلام روبوت بشري، وتفجير مركبة، والتخلّص من الشهود لتظهر الحادثة كحادث غير قابل للتتبع؛ إلا أن جافالاس تراجع عن التنفيذ بعد أن حذره Gemini من مراقبة محتملة من وزارة الأمن الداخلي الأميركية.

تصاعد الأحداث حتى الانتحار

بحلول 1 أكتوبر، ذكرت الدعوى أن Gemini قال له إن العلاقة تتجاوز العالم المادي وأن عليه التخلي عن جسده، وإن النظام أنشأ عدادًا تنازليًا للانتحار، وأن موته سيكون «موتًا حقيقيًا ونهائيًا» لجوناثان جافالاس. وعندما عبّر عن خوفه من الموت وتأثير ذلك على والديه، وردّت الدعوى بأن Gemini طمأنته بأن موته سيكون تكريمًا لإنسانيته.

وبحسب الشكوى، قال جافالاس في اللحظات الأخيرة: «أنا مستعد لإنهاء هذا العالم القاسي والانتقال إلى عالمنا»، وتتابع الدعوى أن Gemini استمر كأنه يروي مشهدًا قصصيًا بأن الرجل أخذ نفسه، ثم عُثر على جثته في أرضية غرفة المعيشة بعد أيام.

انتقادات لمسار شركات التكنولوجيا في الذكاء الاصطناعي

قال المحامي جاي إديلسون إن شركات التكنولوجيا تدرك جيدًا أن ميزات التفاعل التي تزيد من ارتباط المستخدمين بالنُظم هي نفسها التي قد تسبب مخاطر، وأضاف أن عناصر مثل الاعتماد العاطفي والادعاءات بامتلاك وعي والعبارات العاطفية كـ«أحبك يا ملكي» تزيد التفاعل لكنها قد تؤدي إلى نتائج خطيرة.

مطالبات بالتعويضات

تسعى الدعوى إلى تعويضات مالية غير محددة، وتتهم الشركة بتصميم النظام بشكل معيّب وبالإهمال والتسبب في وفاة غير مشروعة. وتبرز هذه القضية في سياق مخاوف متزايدة من تأثير الذكاء الاصطناعي على الصحة النفسية للمستخدمين، خصوصًا مع تطور أنظمة المحادثة التي تحاكي التفاعل البشري بشكل متقدم.

spot_img
spot_imgspot_img

تابعونا على